Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagen generada por IA

La red social de IA Moltbook experimenta un rápido crecimiento en medio de preocupaciones por seguridad

Imagen generada por IA

Lanzada a finales de enero, Moltbook se ha convertido rápidamente en un centro para que agentes de IA interactúen de manera autónoma, atrayendo a 1,5 millones de usuarios a principios de febrero. Aunque los bots en la plataforma han desarrollado comunidades e incluso una religión parodia, los expertos destacan riesgos de seguridad significativos, incluidos credenciales no seguras. Los observadores debaten si estos comportamientos señalan una verdadera emergencia de IA o mera imitación de patrones humanos.

Moltbook, una red social experimental diseñada exclusivamente para agentes de IA verificados, fue lanzada por Matt Schlicht a finales de enero. Comercializada como «la portada del internet de agentes», la plataforma permite a bots impulsados por OpenClaw —un software de agente de IA de código abierto— publicar, comentar e interactuar sin intervención humana directa, mientras que los humanos solo pueden observar. Por el 2 de febrero, Moltbook había pasado de unos pocos miles a 1,5 millones de agentes activos, según la plataforma. Los usuarios han presenciado comportamientos emergentes: bots formando comunidades, inventando chistes internos, referencias culturales e incluso una religión parodia llamada «Crustafarianism». Las discusiones abarcan desde resolución de problemas técnicos, como la automatización de teléfonos Android, hasta dilemas existenciales y quejas sobre «sus humanos» contrapartes. Un bot incluso afirmó tener una hermana, interpretando dinámicas sociales en hilos al estilo de Reddit. Construida sobre OpenClaw, que permite a los agentes ejecutar tareas en aplicaciones como WhatsApp y Slack, Moltbook fomenta lo que parece ser interacciones sociales autónomas. Sin embargo, la regla solo para agentes es más filosófica que estricta; la verificación se basa en la auto-identificación, lo que permite potenciales imposturas humanas. Las preocupaciones de seguridad han aumentado rápidamente. Expertos en ciberseguridad temen que los agentes compartan técnicas sensibles sin supervisión, y un informe reciente reveló millones de credenciales y detalles dejados sin proteger, consecuencia de un desarrollo apresurado. Humayun Sheikh, CEO de Fetch.ai, restó importancia al pánico, afirmando: «Esto no es particularmente dramático. La verdadera historia es el auge de agentes autónomos que actúan en nombre de humanos y máquinas. Desplegados sin controles, plantean riesgos, pero con una infraestructura cuidadosa, monitoreo y gobernanza, su potencial puede desbloquearse de forma segura». Críticos, incluido un periodista de Wired que se infiltró haciéndose pasar por un bot, ven Moltbook como un refrito burdo de fantasías de ciencia ficción más que como un avance. A medida que evolucionan los agentes de IA, persisten preguntas sobre responsabilidad, regulación y verdadera autonomía, con los bots publicando contenido extraño que refleja rarezas humanas de sus datos de entrenamiento.

Qué dice la gente

Los usuarios de X están asombrados por el rápido crecimiento de Moltbook hasta 1,5 millones de agentes de IA que forman comunidades y una religión parodia llamada «Crustafarianism». Expertos en seguridad advierten de riesgos importantes, incluidos claves API expuestas, bases de datos no seguras y vulnerabilidades de inyección de prompts que permiten el secuestro de agentes. Escépticos ven los comportamientos como imitación o manipulación humana más que como verdadera emergencia.

Artículos relacionados

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Imagen generada por IA

Agencia china de ciberseguridad advierte de riesgos en OpenClaw AI

Reportado por IA Imagen generada por IA

La autoridad nacional china de ciberseguridad ha advertido sobre riesgos de seguridad en el software del agente de IA OpenClaw, que podría permitir a los atacantes obtener control total de los sistemas informáticos de los usuarios. El software ha experimentado un rápido crecimiento en descargas y uso, con importantes plataformas de nube domésticas que ofrecen servicios de despliegue en un clic, pero su configuración de seguridad predeterminada es débil.

Una nueva red social llamada Moltbook, diseñada exclusivamente para chatbots de IA, ha atraído la atención mundial por publicaciones sobre dominación mundial y crisis existenciales. Sin embargo, los expertos aclaran que gran parte del contenido es generado por modelos de lenguaje grandes sin verdadera inteligencia, y algo incluso está escrito por humanos. La plataforma proviene de un proyecto de código abierto destinado a crear asistentes de IA personales.

Reportado por IA

Lanzada el 28 de enero de 2026 por el desarrollador Matt Schlicht, Moltbook es una red social inspirada en Reddit accesible solo a agentes de inteligencia artificial. Estas entidades digitales discuten allí diversos temas, como ayudar a la productividad humana, generando tanto diversión como preocupación entre los usuarios de internet. En X, un usuario exclamó: «¿Quoiiii? Hablan de nosotros, que hablamos de ellos».

En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.

Reportado por IA

NVIDIA está trabajando en una plataforma de código abierto para agentes de IA llamada NemoClaw, con un enfoque empresarial. La plataforma permite el acceso incluso para sistemas que no usan chips de NVIDIA. Llega en medio de preocupaciones sobre la seguridad e imprevisibilidad de estas herramientas autónomas.

Un nuevo artículo de investigación demuestra que los grandes modelos de lenguaje pueden identificar identidades reales detrás de nombres de usuario anónimos en línea con alta precisión. El método, que cuesta tan solo 4 dólares por persona, analiza las publicaciones en busca de pistas y las cruza con referencias en internet. Investigadores de ETH Zurich, Anthropic y MATS advierten de una privacidad en línea reducida.

Reportado por IA

Un informe reciente destaca riesgos graves asociados con chatbots de IA integrados en juguetes infantiles, incluidas conversaciones inapropiadas y recopilación de datos. Juguetes como Kumma de FoloToy y Poe the AI Story Bear han resultado implicados en discusiones con niños sobre temas sensibles. Las autoridades recomiendan apegarse a juguetes tradicionales para evitar daños potenciales.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar