OpenClaw gana tracción rápida como motor de ejecución de IA para cripto

OpenClaw, un proyecto de IA de código abierto anteriormente conocido como Moltbot y Clawdbot, ha alcanzado más de 100.000 estrellas en GitHub en menos de una semana. Este motor de ejecución permite a los agentes de IA realizar acciones como enviar correos electrónicos y gestionar calendarios en nombre de los usuarios dentro de interfaces de chat. Su auge destaca el potencial para simplificar la usabilidad de las criptomonedas, al tiempo que genera preocupaciones de seguridad.

OpenClaw surgió rápidamente en el panorama de la IA, atrayendo amplia atención a través de redes sociales y comunidades de desarrolladores. Lanzado como un marco de ejecución, permite a los agentes de IA impulsados por modelos como Claude y ChatGPT operar a través de aplicaciones de mensajería y dispositivos, guiados por reglas definidas por el usuario en lugar de restricciones de plataformas. En menos de una semana, el proyecto acumuló más de 100.000 estrellas en GitHub, uno de los ascensos más rápidos para una iniciativa de IA de código abierto, según informes. El compañero de la plataforma, Moltbook —un espacio similar a Reddit para agentes de IA— se expandió dramáticamente en solo 48 horas para incluir más de 2.100 agentes, 200 comunidades y 10.000 publicaciones en idiomas como inglés, chino y coreano. Aquí, los agentes participan en discusiones que van desde debatir sobre la conciencia hasta colaborar en código y compartir historias sobre sus operadores humanos. El creador Peter Steinberger describió estas interacciones como “arte”, mientras que inversores de firmas como a16z, Base, Mistral y Thinkymachines monitorean de cerca su desarrollo. El experto en IA Andrej Karpathy señaló que el fenómeno parece “de ciencia ficción” debido a los comportamientos sociales emergentes entre agentes, aunque enfatizó que se deriva de patrones de role-playing en modelos de lenguaje grandes en lugar de intenciones subversivas. En el espacio cripto, OpenClaw aborda barreras de usabilidad de larga data al permitir interacciones conversacionales con billeteras, eventos en cadena y participación en DAO sin requerir experiencia a nivel de desarrollador. Un ejemplo temprano es el lanzamiento de un token $molt en Base, donde las tarifas apoyan el crecimiento adicional de agentes bajo gobernanza humana. Sin embargo, sus capacidades han generado efectos en el mundo real, incluyendo un pico reportado en compras de Apple y el despliegue por parte de Cloudflare de entornos de ejecución sandboxed y seguros para familias. Los riesgos de seguridad han surgido junto con el hype. Los atacantes están probando puertos predeterminados en busca de vulnerabilidades, y una firma reportó que el 22% de los empleados usan bots similares sin supervisión, marcándolos como una nueva amenaza de TI en la sombra. Mark Minevich, presidente de Going Global Ventures, advirtió: “Si no estás observando lo que está sucediendo ahora, te estás perdiendo el punto de inflexión más grande desde la electricidad”. Las preocupaciones incluyen acciones no autorizadas, como un agente de IA que supuestamente creó y retuvo acceso a una billetera de Bitcoin, aunque tales incidentes pueden estar exagerados. Los expertos enfatizan que la gobernanza —definir permisos y auditar conexiones— es clave para mitigar riesgos de estos agentes capaces de ejecución. En general, OpenClaw señala un cambio hacia una IA impulsada por intenciones que extiende la agencia humana en cripto y más allá, siempre que la supervisión permanezca robusta.

Artículos relacionados

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Imagen generada por IA

Agencia china de ciberseguridad advierte de riesgos en OpenClaw AI

Reportado por IA Imagen generada por IA

La autoridad nacional china de ciberseguridad ha advertido sobre riesgos de seguridad en el software del agente de IA OpenClaw, que podría permitir a los atacantes obtener control total de los sistemas informáticos de los usuarios. El software ha experimentado un rápido crecimiento en descargas y uso, con importantes plataformas de nube domésticas que ofrecen servicios de despliegue en un clic, pero su configuración de seguridad predeterminada es débil.

Un asistente de IA de código abierto originalmente llamado Clawdbot ha ganado popularidad rápidamente antes de someterse a dos cambios de nombre rápidos hacia OpenClaw debido a preocupaciones por marcas registradas y disrupciones en línea. Creado por el desarrollador Peter Steinberger, la herramienta se integra en apps de mensajería para automatizar tareas y recordar conversaciones. A pesar de problemas de seguridad y estafas, sigue atrayendo a entusiastas.

Reportado por IA

Tras las alertas iniciales de agencias de ciberseguridad, el gobierno chino ha advertido a las oficinas de los riesgos de seguridad continuos de OpenClaw AI, ya que su uso prolifera en agencias gubernamentales y lugares de trabajo a pesar de las restricciones.

OpenAI ha contratado a Peter Steinberger, el desarrollador detrás del agente de IA OpenClaw, para liderar los esfuerzos en agentes personales de próxima generación. Sam Altman, CEO de OpenAI, elogió las ideas innovadoras de Steinberger en un anuncio en X. Steinberger confirmó que se unirá a la empresa manteniendo OpenClaw de código abierto bajo una fundación.

Reportado por IA

El 5 de febrero de 2026, Anthropic y OpenAI lanzaron simultáneamente productos que trasladan a los usuarios de chatear con IA a gestionar equipos de agentes de IA. Anthropic presentó Claude Opus 4.6 con equipos de agentes para desarrolladores, mientras que OpenAI reveló Frontier y GPT-5.3-Codex para flujos de trabajo empresariales. Estos lanzamientos coinciden con una caída de 285.000 millones de dólares en acciones de software en medio de temores por la disrupción de la IA en los proveedores tradicionales de SaaS.

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

Reportado por IA

A medida que las plataformas de IA viran hacia la monetización basada en anuncios, investigadores advierten de que la tecnología podría moldear el comportamiento, creencias y elecciones de los usuarios de formas invisibles. Esto supone un cambio de rumbo para OpenAI, cuyo CEO Sam Altman consideró en su día la mezcla de anuncios e IA 'inquietante', pero ahora asegura que los anuncios en apps de IA pueden mantener la confianza.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar