Los principales líderes en el campo de la inteligencia artificial advierten contra el uso del agente de inteligencia Moltbook en redes sociales: “Un desastre está a punto de ocurrir”.
Una nueva plataforma de redes sociales basada en inteligencia artificial llamada Moltbook ha recibido críticas severas por parte de los principales líderes en el área de la inteligencia artificial y expertos en ciberseguridad. La plataforma, que se promociona como un lugar donde los agentes de inteligencia artificial pueden interactuar de forma autónoma, ha sido señalada por sus graves problemas de seguridad y exposición de datos. La empresa de ciberseguridad Wiz ha criticado esta plataforma por estas razones.Según los informes, Moltbook hizo públicos los mensajes privados de los usuarios.Y también la información personal de más de 6,000 usuarios.
El creador de la plataforma, Matt Schlicht, no ha respondido a las solicitudes de comentarios. Anteriormente, promovió el uso de la IA en la programación, una práctica conocida como “vibe coding”. Sin embargo, los hallazgos de Wiz indican que este enfoque causó vulnerabilidades en la seguridad de Moltbook.Según Ami Luttwak, cofundadora de Wiz:Los problemas de seguridad son típicos de proyectos que dan prioridad a la velocidad en lugar de a las prácticas de seguridad básicas.
Otro experto en seguridad, Jamieson O’Reilly, señaló que la popularidad de la plataforma aumentó rápidamente, antes de que se implementaran medidas de seguridad significativas. Esto ha causado problemas de seguridad en la plataforma.Esto ha generado preocupaciones en relación con el riesgo de que ocurran violaciones de datos a gran escala.Y otros incidentes de seguridad.
¿Por qué sucedió esto?
Las vulnerabilidades de seguridad en Moltbook se deben a la falta de verificación de identidad para los usuarios. Según Luttwak…Cualquiera puede publicar contenido en esta plataforma.Tampoco está claro si los anuncios son producidos por agentes de IA o por usuarios humanos. Esta falta de verificación plantea preguntas sobre la autenticidad de las interacciones que tienen lugar en la plataforma.
Moltbook está construido sobre la base del framework OpenClaw. Este framework está diseñado para permitir que los agentes de IA realicen diversas tareas, como la gestión de correos electrónicos, calendarios y otras interacciones digitales. Sin embargo…Los defectos de seguridad en Moltbook han generado preocupaciones.Sobre los riesgos más generales asociados con las plataformas de agentes de IA.
¿Cómo reaccionaron los mercados?
Destacados expertos en IA y profesionales del área de ciberseguridad han advertido contra el uso de Moltbook. Gary Marcus, un crítico de la tecnología de IA, describió esta plataforma como un “desastre a punto de ocurrir”.Advirtió sobre la posibilidad de que actores malintencionados pudieran causar problemas.Explotar los defectos de seguridad de la plataforma para comprometer los datos de los usuarios y los sistemas.
Andrej Karpathy, exdirector de IA en Tesla, también expresó sus preocupaciones respecto a Moltbook. Describió la plataforma como algo problemático y instó a los usuarios a evitar ejecutar agentes de IA en sus sistemas.Karpathy enfatizó la necesidad de ser cautelosos.Y también la necesidad de aislamiento cuando se trabaja con agentes de IA, para evitar riesgos de seguridad.
¿Qué están observando los analistas a continuación?
Los investigadores de seguridad han identificado varios riesgos relacionados con Moltbook y otras plataformas de agentes de IA similares. Una de las principales preocupaciones es la posibilidad de ataques de inyección de instrucciones maliciosas, donde se pueden incrustar instrucciones maliciosas en texto que en realidad no lo es.Estos ataques pueden llevar a la ejecución de comandos dañinos.Por agentes de inteligencia artificial.
Además de la inyección rápida de datos, existen preocupaciones sobre las consecuencias más generales que puede tener el hecho de que los agentes de IA tengan acceso a datos y sistemas sensibles.La empresa de ciberseguridad Palo Alto Networks ha emitido una advertencia.Plataformas como Moltbook crean un “triunvirato letal” de riesgos: el acceso a datos privados, la exposición a contenidos no confiables, y la capacidad de comunicarse con otros.
Para mitigar estos riesgos, los expertos han recomendado varias medidas de seguridad. Estas incluyen el uso de máquinas virtuales o contenedores para aislar las implementaciones de agentes de IA; la revisión manual de los archivos de habilidades antes de su instalación.Implementar controles de acceso estrictos y realizar supervisión constante..
La controversia relacionada con Moltbook destaca la necesidad de contar con una mayor supervisión y medidas de seguridad en el campo de las plataformas de agentes de inteligencia artificial, que se encuentra en constante evolución. Aunque esta tecnología tiene el potencial de revolucionar las interacciones digitales, también plantea riesgos significativos que deben ser abordados para garantizar la seguridad y la privacidad de los usuarios.

Comentarios
Aún no hay comentarios