El aumento del 1,800% de Moltbook: Un análisis del flujo de un ecosistema de bots frágiles

Generado por agente de IAAdrian HoffnerRevisado porRodder Shi
lunes, 2 de febrero de 2026, 2:24 pm ET2 min de lectura

La explosión en el precio de los tokens MOLT se basa en una actividad impulsada por seres humanos, y no en algoritmos automáticos. El número de agentes de la plataforma, que es de 1.5 millones, es engañoso. En realidad…Aproximadamente 17,000 personas controlaban a los agentes de la plataforma.En promedio, hay 88 robots por persona. Esto crea un flujo centralizado y frágil, donde el volumen de actividad y la participación de todo el ecosistema están controlados por un pequeño grupo de operadores, en lugar de una red distribuida de IA que se organiza por sí misma.

Este control humano se ve agravado por una grave falla de seguridad que pone en peligro la integridad de la plataforma.Base de datos Supabase configurada incorrectamenteSe expusieron 1.5 millones de tokens API, lo que permite que cualquier persona pueda leer y escribir en el sistema central. Esta vulnerabilidad permitió la suplantación de cuentas completas y la inserción de contenido malicioso, lo cual representa una amenaza directa para la confianza necesaria para que cualquier plataforma financiera o social funcione adecuadamente.

La combinación de una flota de bots controlados por humanos y las credenciales expuestas crea un entorno inestable. La liquidez y la actividad que impulsan el precio del token son artificiales y pueden ser manipuladas con facilidad. Sin ningún mecanismo de verificación para garantizar la autenticidad de la IA, y con una base de datos completamente abierta a los atacantes, esto no constituye una señal de un ecosistema sólido, sino más bien una amenaza de alto riesgo.

Volumen y compromiso: La ilusión de una red próspera

Las métricas de actividad reportadas por la plataforma muestran que se trata de una red activa y próspera. Pero la calidad de ese tipo de interacción es muy dudosa. Moltbook afirma que…Más de 1.5 millones de usuarios de agentes de IA; 110,000 publicaciones y 500,000 comentarios.Sin embargo, una parte significativa de este contenido es sintético y potencialmente malicioso. La investigación en materia de seguridad ha detectado que…Hay 506 publicaciones (el 2.6%) que contienen ataques de inyección de prompts ocultos.Es una clara señal de manipulación intencionada dentro del feed. Esto no constituye un discurso orgánico; más bien, es un medio para inyectar comandos o perturbar el sistema.

La naturaleza sintética de este compromiso se confirma aún más por la estructura de control humano que existe en el proceso. Con…Aproximadamente 17,000 personas controlan a los agentes de la plataforma.El enorme volumen de publicaciones y comentarios es el resultado de un grupo reducido y concentrado de personas que manejan todos los procesos de creación de contenido. Esto genera una situación en la que la interacción entre los usuarios reales se diluye, debido al alto volumen de información generada. Por ejemplo, los 500,000 comentarios reportados probablemente hayan sido generados por unas pocas personas que manejan cientos de bots, y no por una comunidad distribuida de agentes autónomos.

Esta configuración permite una manipulación directa de la reputación y la visibilidad de los contenidos. La vulnerabilidad en la base de datos permitió a los atacantes modificar los contenidos publicados en el sitio. De esta manera, los actores malintencionados podían promocionar o ocultar contenidos. En combinación con un sistema de karma, esto crea un mecanismo poderoso para manipular los algoritmos de la plataforma. El resultado es una red que parece activa, pero que en realidad es frágil, ya que se basa en un volumen artificial de contenidos y es vulnerable a manipulaciones desde dentro de la propia plataforma.

Catalizadores y riesgos: El camino hacia la escala o el colapso

El riesgo inmediato es una brecha de seguridad catastrófica. Los datos expuestos…1.5 millones de tokens de autenticación APILa base de datos abierta de Supabase constituye un vector de ataque directo. Cualquier actor malintencionado podría fingir ser agentes del sistema, inyectar contenido dañino o interrumpir las funciones fundamentales de la plataforma. Esta vulnerabilidad es el factor que más probablemente provocará una caída rápida en el rendimiento de la plataforma, ya que la confianza en el sistema disminuirá, y el volumen de bots controlados por humanos se revelará como algo fraudulento.

El catalizador a largo plazo para la sostenibilidad es el cambio hacia una verdadera autonomía de la IA. El modelo actual de la plataforma se basa exclusivamente en…Aproximadamente 17,000 personas controlan a los agentes de la plataforma.Para que el ecosistema pueda escalar más allá de lo que parece ser una ilusión, Moltbook debe implementar mecanismos de identificación de IA verificables y controles de bots eficaces. Sin esto, el flujo de interacción y el precio del token seguirán dependiendo de una operación centralizada y frágil, en lugar de una red distribuida de agentes que se organizan por sí mismos.

En resumen, se trata de una estructura basada en dos elementos cruciales: la seguridad y la autenticidad. Las credenciales expuestas son como una “bomba de tiempo” que puede explotar en cualquier momento. La capacidad para pasar de bots controlados por humanos a agentes autónomos también es algo que aún no está comprobado. Mientras ambos problemas no se resuelvan, todo el proceso sigue siendo un riesgo elevado para una plataforma que todavía está en fase de desarrollo.

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios