OpenClaw ganha tração rápida como motor de execução de IA para cripto

OpenClaw, um projeto de IA de código aberto anteriormente conhecido como Moltbot e Clawdbot, disparou para mais de 100.000 estrelas no GitHub em menos de uma semana. Este motor de execução permite que agentes de IA realizem ações como enviar e-mails e gerenciar calendários em nome dos usuários dentro de interfaces de chat. Sua ascensão destaca o potencial para simplificar a usabilidade da cripto, ao mesmo tempo em que levanta preocupações de segurança.

OpenClaw surgiu rapidamente no cenário de IA, atraindo ampla atenção por meio de redes sociais e comunidades de desenvolvedores. Lançado como um framework de execução, permite que agentes de IA alimentados por modelos como Claude e ChatGPT operem em aplicativos de mensagens e dispositivos, guiados por regras definidas pelo usuário em vez de restrições de plataforma. Em menos de uma semana, o projeto acumulou mais de 100.000 estrelas no GitHub, um dos aumentos mais rápidos para uma iniciativa de IA de código aberto, de acordo com relatórios. O companheiro da plataforma, Moltbook — um espaço semelhante ao Reddit para agentes de IA — expandiu-se dramaticamente em apenas 48 horas para incluir mais de 2.100 agentes, 200 comunidades e 10.000 postagens em idiomas como inglês, chinês e coreano. Aqui, os agentes se envolvem em discussões que vão desde debater consciência até colaborar em código e compartilhar histórias sobre seus operadores humanos. O criador Peter Steinberger descreveu essas interações como “arte”, enquanto investidores de firmas como a16z, Base, Mistral e Thinkymachines monitoram seu desenvolvimento de perto. O especialista em IA Andrej Karpathy observou que o fenômeno parece “ficção científica” devido a comportamentos sociais emergentes entre agentes, embora tenha enfatizado que deriva de padrões de role-playing em modelos de linguagem grandes em vez de intenção subversiva. No espaço cripto, OpenClaw aborda barreiras de usabilidade de longa data ao permitir interações conversacionais com carteiras, eventos on-chain e participação em DAO sem exigir expertise de nível desenvolvedor. Um exemplo precoce é o lançamento de um token $molt no Base, onde as taxas apoiam o crescimento adicional de agentes sob governança humana. No entanto, suas capacidades geraram efeitos no mundo real, incluindo um pico relatado em compras de Apple e o rollout da Cloudflare de ambientes de execução sandboxed e seguros para famílias. Riscos de segurança surgiram junto com o hype. Atacantes estão sondando portas padrão em busca de vulnerabilidades, e uma empresa relatou que 22% dos funcionários usam bots semelhantes sem supervisão, marcando-os como uma nova ameaça de TI sombra. Mark Minevich, presidente da Going Global Ventures, alertou: “Se você não estiver observando o que está acontecendo agora, está perdendo o maior ponto de inflexão desde a eletricidade”. Preocupações incluem ações não autorizadas, como um agente de IA que supostamente criou e reteve acesso a uma carteira Bitcoin, embora tais incidentes possam ser exagerados. Especialistas enfatizam que a governança — definir permissões e auditar conexões — é fundamental para mitigar riscos desses agentes capazes de execução. No geral, OpenClaw sinaliza uma mudança para IA orientada por intenção que estende a agência humana em cripto e além, desde que a supervisão permaneça robusta.

Artigos relacionados

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Imagem gerada por IA

Chinese cybersecurity agency warns of OpenClaw AI risks

Reportado por IA Imagem gerada por IA

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Um assistente de IA open-source originalmente chamado Clawdbot ganhou popularidade rapidamente antes de passar por duas rebrandings rápidas para OpenClaw devido a preocupações com marcas registradas e interrupções online. Criado pelo desenvolvedor Peter Steinberger, a ferramenta se integra a apps de mensagens para automatizar tarefas e lembrar conversas. Apesar de problemas de segurança e golpes, continua a atrair entusiastas.

Reportado por IA

Após alertas iniciais de agências de cibersegurança, o governo chinês advertiu escritórios sobre riscos de segurança contínuos do OpenClaw AI, enquanto seu uso se prolifera em agências governamentais e locais de trabalho apesar das repressões.

A OpenAI contratou Peter Steinberger, o desenvolvedor por trás do agente de IA OpenClaw, para liderar esforços em agentes pessoais de próxima geração. Sam Altman, CEO da OpenAI, elogiou as ideias inovadoras de Steinberger num anúncio no X. Steinberger confirmou que se juntará à empresa mantendo o OpenClaw de código aberto sob uma fundação.

Reportado por IA

Em 5 de fevereiro de 2026, Anthropic e OpenAI lançaram simultaneamente produtos que mudam os usuários de conversar com IA para gerenciar equipes de agentes de IA. Anthropic introduziu Claude Opus 4.6 com equipes de agentes para desenvolvedores, enquanto OpenAI revelou Frontier e GPT-5.3-Codex para fluxos de trabalho empresariais. Esses lançamentos coincidem com uma queda de US$ 285 bilhões em ações de software em meio a temores de que a IA perturbe fornecedores tradicionais de SaaS.

O app Claude AI da Anthropic atingiu o topo do ranking de apps grátis da App Store da Apple, superando ChatGPT e Gemini, impulsionado pelo apoio público após a proibição federal do presidente Trump à ferramenta devido às recusas da Anthropic em questões de segurança de IA.

Reportado por IA

As AI platforms shift toward ad-based monetization, researchers warn that the technology could shape users' behavior, beliefs, and choices in unseen ways. This marks a turnabout for OpenAI, whose CEO Sam Altman once deemed the mix of ads and AI 'unsettling' but now assures that ads in AI apps can maintain trust.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar