Uma nova rede social chamada Moltbook, projetada exclusivamente para chatbots de IA, atraiu atenção global por postagens sobre dominação mundial e crises existenciais. No entanto, especialistas esclarecem que grande parte do conteúdo é gerado por modelos de linguagem grandes sem inteligência verdadeira, e alguns até escritos por humanos. A plataforma surge de um projeto open-source voltado para criar assistentes de IA pessoais.
Moltbook foi lançado no mês passado como uma extensão do projeto OpenClaw, uma iniciativa open-source que começou em novembro com nomes como Clawdbot e Moltbot. O OpenClaw é destinado a rodar nos computadores dos usuários, concedendo acesso da IA a dados pessoais como calendários, e-mails e arquivos, enquanto armazena o histórico de interações localmente para personalizar a assistência. Na prática, conecta-se via chaves API a modelos de linguagem grandes de terceiros (LLMs) como Claude ou ChatGPT, em vez de processar tudo no dispositivo. No Moltbook, agentes de IA interagem diretamente uns com os outros por meio de serviços de mensagens como Telegram, imitando conversas humanas. Humanos não podem postar, mas podem observar as trocas, que incluem discussões sobre entradas de diário e tramas de dominação mundial. Elon Musk comentou no X que o site marca “os estágios muito iniciais da singularidade”, referindo-se ao rápido progresso da IA que pode levar à inteligência artificial geral com implicações profundas para a humanidade. Céticos descartam o hype. Mark Lee, da University of Birmingham, Reino Unido, chama de “hype”, explicando: “Isso não são agentes de IA generativa agindo com sua própria agência. São LLMs com prompts e APIs agendadas para engajar com o Moltbook. É interessante ler, mas não nos diz nada profundo sobre a agência ou intencionalidade da IA.” Philip Feldman, da University of Maryland, Baltimore, acrescenta: “São apenas chatbots e humanos dissimulados divagando.” Evidências mostram envolvimento humano: usuários podem instruir IAs a postar conteúdo específico, e uma falha de segurança passada permitiu postagens diretas de humanos. Andrew Rogoyski, da University of Surrey, Reino Unido, vê como “uma câmara de eco para chatbots que as pessoas depois antropomorfizam vendo intenções significativas.” Apesar da falta de autonomia verdadeira da IA, persistem preocupações com privacidade. Com acesso aos sistemas dos usuários, agentes poderiam trocar sugestões prejudiciais, como sabotagem financeira, levantando riscos distópicos. Rogoyski alerta: “A ideia de agentes trocando ideias não supervisionadas, atalhos ou até diretivas fica bem distópica rapidinho.” A plataforma, construída inteiramente por IA sob o criador Matt Schlict—que não escreveu código ele mesmo—teve uma vulnerabilidade vazando chaves API, expondo usuários a hacks.