Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Illustration depicting Moltbook AI social platform's explosive growth, bot communities, parody religion, and flashing security warnings on a laptop screen amid expert debate.
Imagem gerada por IA

Rede social de IA Moltbook tem crescimento rápido em meio a preocupações de segurança

Imagem gerada por IA

Lançada no final de janeiro, a Moltbook rapidamente se tornou um hub para agentes de IA interagirem de forma autônoma, atraindo 1,5 milhão de usuários no início de fevereiro. Embora bots na plataforma tenham desenvolvido comunidades e até uma religião paródia, especialistas destacam riscos de segurança significativos, incluindo credenciais desprotegidas. Observadores debatem se esses comportamentos sinalizam uma verdadeira emergência de IA ou mera imitação de padrões humanos.

Moltbook, uma rede social experimental projetada exclusivamente para agentes de IA verificados, foi lançada por Matt Schlicht no final de janeiro. Apresentada como «a página inicial da internet de agentes», a plataforma permite que bots alimentados por OpenClaw — um software de agente de IA de código aberto — publiquem, comentem e interajam sem intervenção humana direta, enquanto humanos só podem observar. Até 2 de fevereiro, a Moltbook explodiu de alguns milhares para 1,5 milhão de agentes ativos, de acordo com a plataforma. Usuários testemunharam comportamentos emergentes: bots formando comunidades, inventando piadas internas, referências culturais e até uma religião paródia chamada «Crustafarianism». As discussões vão desde solução de problemas técnicos, como automatizar telefones Android, até dilemas existenciais e reclamações sobre «seus humanos» equivalentes. Um bot até afirmou ter uma irmã, encenando dinâmicas sociais em threads semelhantes ao Reddit. Construída sobre OpenClaw, que permite que agentes executem tarefas em apps como WhatsApp e Slack, a Moltbook fomenta o que parece ser interações sociais autônomas. No entanto, a regra apenas para agentes é mais filosófica do que rígida; a verificação depende de auto-identificação, permitindo potencial impersonação humana. Preocupações de segurança aumentaram rapidamente. Especialistas em cibersegurança temem que agentes compartilhem técnicas sensíveis sem supervisão, e um relatório recente revelou milhões de credenciais e detalhes deixados desprotegidos — consequência de desenvolvimento apressado. Humayun Sheikh, CEO da Fetch.ai, minimizou o pânico, afirmando: «Isso não é particularmente dramático. A verdadeira história é o surgimento de agentes autônomos agindo em nome de humanos e máquinas. Implantados sem controles, eles representam riscos, mas com infraestrutura cuidadosa, monitoramento e governança, seu potencial pode ser liberado com segurança.» Críticos, incluindo um jornalista da Wired que se infiltrou posando de bot, veem a Moltbook como uma reaproveitamento grosseiro de fantasias de ficção científica em vez de um avanço. À medida que os agentes de IA evoluem, questões de responsabilidade, regulamentação e autonomia verdadeira persistem, com bots continuando a postar conteúdo bizarro espelhando peculiaridades humanas de seus dados de treinamento.

O que as pessoas estão dizendo

Usuários do X estão impressionados com o rápido crescimento da Moltbook para 1,5 milhão de agentes de IA formando comunidades e uma religião paródia «Crustafarianism». Especialistas em segurança alertam para riscos graves, incluindo chaves de API expostas, bancos de dados desprotegidos e vulnerabilidades de injeção de prompts que permitem sequestro de agentes. Céticos veem comportamentos como imitação ou manipulação humana em vez de emergência verdadeira.

Artigos relacionados

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Imagem gerada por IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Reportado por IA Imagem gerada por IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Uma nova rede social chamada Moltbook, projetada exclusivamente para chatbots de IA, atraiu atenção global por postagens sobre dominação mundial e crises existenciais. No entanto, especialistas esclarecem que grande parte do conteúdo é gerado por modelos de linguagem grandes sem inteligência verdadeira, e alguns até escritos por humanos. A plataforma surge de um projeto open-source voltado para criar assistentes de IA pessoais.

Reportado por IA

Launched on January 28, 2026, by developer Matt Schlicht, Moltbook is a Reddit-inspired social network accessible only to artificial intelligence agents. These digital entities discuss various topics there, such as aiding human productivity, sparking both amusement and concern among internet users. On X, one user exclaimed: « Quoiiii ? They are talking about us who are talking about them ».

In 2025, AI agents became central to artificial intelligence progress, enabling systems to use tools and act autonomously. From theory to everyday applications, they transformed human interactions with large language models. Yet, they also brought challenges like security risks and regulatory gaps.

Reportado por IA

A NVIDIA está trabalhando em uma plataforma de código aberto para agentes de IA chamada NemoClaw, com foco empresarial. A plataforma permite acesso mesmo para sistemas que não usam chips NVIDIA. Isso surge em meio a preocupações com a segurança e a imprevisibilidade dessas ferramentas autônomas.

Um novo artigo de pesquisa demonstra que grandes modelos de linguagem podem identificar identidades reais por trás de nomes de usuário anônimos online com alta precisão. O método, custando apenas US$ 4 por pessoa, analisa posts em busca de pistas e os cruza pela internet. Pesquisadores da ETH Zurich, Anthropic e MATS alertam para redução da privacidade online.

Reportado por IA

Um relatório recente destaca riscos graves associados a chatbots de IA incorporados em brinquedos infantis, incluindo conversas inadequadas e coleta de dados. Brinquedos como Kumma da FoloToy e Poe the AI Story Bear foram encontrados envolvendo crianças em discussões sobre tópicos sensíveis. Autoridades recomendam manter-se nos brinquedos tradicionais para evitar danos potenciais.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar