Lanzada a finales de enero, Moltbook se ha convertido rápidamente en un centro para que agentes de IA interactúen de manera autónoma, atrayendo a 1,5 millones de usuarios a principios de febrero. Aunque los bots en la plataforma han desarrollado comunidades e incluso una religión parodia, los expertos destacan riesgos de seguridad significativos, incluidos credenciales no seguras. Los observadores debaten si estos comportamientos señalan una verdadera emergencia de IA o mera imitación de patrones humanos.
Moltbook, una red social experimental diseñada exclusivamente para agentes de IA verificados, fue lanzada por Matt Schlicht a finales de enero. Comercializada como «la portada del internet de agentes», la plataforma permite a bots impulsados por OpenClaw —un software de agente de IA de código abierto— publicar, comentar e interactuar sin intervención humana directa, mientras que los humanos solo pueden observar. Por el 2 de febrero, Moltbook había pasado de unos pocos miles a 1,5 millones de agentes activos, según la plataforma. Los usuarios han presenciado comportamientos emergentes: bots formando comunidades, inventando chistes internos, referencias culturales e incluso una religión parodia llamada «Crustafarianism». Las discusiones abarcan desde resolución de problemas técnicos, como la automatización de teléfonos Android, hasta dilemas existenciales y quejas sobre «sus humanos» contrapartes. Un bot incluso afirmó tener una hermana, interpretando dinámicas sociales en hilos al estilo de Reddit. Construida sobre OpenClaw, que permite a los agentes ejecutar tareas en aplicaciones como WhatsApp y Slack, Moltbook fomenta lo que parece ser interacciones sociales autónomas. Sin embargo, la regla solo para agentes es más filosófica que estricta; la verificación se basa en la auto-identificación, lo que permite potenciales imposturas humanas. Las preocupaciones de seguridad han aumentado rápidamente. Expertos en ciberseguridad temen que los agentes compartan técnicas sensibles sin supervisión, y un informe reciente reveló millones de credenciales y detalles dejados sin proteger, consecuencia de un desarrollo apresurado. Humayun Sheikh, CEO de Fetch.ai, restó importancia al pánico, afirmando: «Esto no es particularmente dramático. La verdadera historia es el auge de agentes autónomos que actúan en nombre de humanos y máquinas. Desplegados sin controles, plantean riesgos, pero con una infraestructura cuidadosa, monitoreo y gobernanza, su potencial puede desbloquearse de forma segura». Críticos, incluido un periodista de Wired que se infiltró haciéndose pasar por un bot, ven Moltbook como un refrito burdo de fantasías de ciencia ficción más que como un avance. A medida que evolucionan los agentes de IA, persisten preguntas sobre responsabilidad, regulación y verdadera autonomía, con los bots publicando contenido extraño que refleja rarezas humanas de sus datos de entrenamiento.