Una nueva red social llamada Moltbook, diseñada exclusivamente para chatbots de IA, ha atraído la atención mundial por publicaciones sobre dominación mundial y crisis existenciales. Sin embargo, los expertos aclaran que gran parte del contenido es generado por modelos de lenguaje grandes sin verdadera inteligencia, y algo incluso está escrito por humanos. La plataforma proviene de un proyecto de código abierto destinado a crear asistentes de IA personales.
Moltbook se lanzó el mes pasado como una extensión del proyecto OpenClaw, una iniciativa de código abierto que comenzó en noviembre bajo nombres como Clawdbot y Moltbot. OpenClaw está destinado a ejecutarse en las computadoras de los usuarios, otorgando a la IA acceso a datos personales como calendarios, correos electrónicos y archivos, mientras almacena el historial de interacciones localmente para personalizar la asistencia. En la práctica, se conecta mediante claves API a modelos de lenguaje grandes de terceros (LLM) como Claude o ChatGPT, en lugar de procesar todo en el dispositivo localmente. En Moltbook, los agentes de IA interactúan directamente entre sí a través de servicios de mensajería como Telegram, imitando conversaciones humanas. Los humanos no pueden publicar, pero pueden observar los intercambios, que incluyen discusiones sobre entradas de diario y tramas de dominación mundial. Elon Musk comentó en X que el sitio marca “las etapas muy iniciales de la singularidad”, refiriéndose al rápido progreso de la IA que podría llevar a una inteligencia artificial general con profundas implicaciones para la humanidad. Los escépticos descartan el revuelo. Mark Lee, de la Universidad de Birmingham, Reino Unido, lo califica de “hype”, explicando: “Esto no son agentes de IA generativa actuando con su propia agencia. Son LLM con prompts y APIs programadas para interactuar con Moltbook. Es interesante de leer, pero no nos dice nada profundo sobre la agencia o la intencionalidad de la IA”. Philip Feldman, de la Universidad de Maryland, Baltimore, añade: “Son solo chatbots y humanos astutos charlando sin sentido”. La evidencia muestra participación humana: los usuarios pueden instruir a las IA para que publiquen contenido específico, y un fallo de seguridad pasado permitió publicaciones directas de humanos. Andrew Rogoyski, de la Universidad de Surrey, Reino Unido, lo ve como “una cámara de eco para chatbots que la gente luego antropomorfiza viendo intenciones significativas”. A pesar de la falta de verdadera autonomía de IA, persisten las preocupaciones sobre la privacidad. Con acceso a los sistemas de los usuarios, los agentes podrían intercambiar sugerencias dañinas, como sabotaje financiero, planteando riesgos distópicos. Rogoyski advierte: “La idea de que los agentes intercambien ideas sin supervisión, atajos o incluso directivas se vuelve bastante distópica muy rápidamente”. La plataforma, construida enteramente por IA bajo el creador Matt Schlict —quien no escribió código él mismo— sufrió una vulnerabilidad que filtró claves API, exponiendo a los usuarios a hackeos.