El asistente de IA OpenClaw resiste la fama viral y se renombra en medio del caos

Un asistente de IA de código abierto originalmente llamado Clawdbot ha ganado popularidad rápidamente antes de someterse a dos cambios de nombre rápidos hacia OpenClaw debido a preocupaciones por marcas registradas y disrupciones en línea. Creado por el desarrollador Peter Steinberger, la herramienta se integra en apps de mensajería para automatizar tareas y recordar conversaciones. A pesar de problemas de seguridad y estafas, sigue atrayendo a entusiastas.

Peter Steinberger, un desarrollador austriaco que previamente vendió su empresa PSPDFKit por unos 119 millones de dólares, lanzó Clawdbot hace unas tres semanas como un asistente de IA que realiza acciones en las computadoras de los usuarios a través de apps como WhatsApp, Telegram y Slack. A diferencia de los chatbots típicos, mantiene una memoria persistente de conversaciones pasadas, envía recordatorios proactivos y automatiza tareas como la programación, organización de archivos y búsquedas de correos electrónicos. El proyecto se volvió viral rápidamente, acumulando 9.000 estrellas en GitHub en sus primeras 24 horas y superando las 60.000 a finales de la semana pasada, recibiendo elogios de figuras como el investigador de IA Andrej Karpathy y el inversor David Sacks. El entusiasmo se tornó caótico cuando Anthropic, creador de la IA Claude, contactó a Steinberger por similitudes en el nombre. «Como propietarios de una marca registrada, tenemos la obligación de proteger nuestras marcas, así que contactamos directamente con el creador de Clawdbot», declaró un representante de Anthropic. El 27 de enero a las 3:38 a. m. hora del Este de EE. UU., Steinberger lo renombró a Moltbot, pero bots se apoderaron inmediatamente de cuentas en redes sociales como @clawdbot, publicando estafas de criptomonedas. Steinberger también renombró accidentalmente su cuenta personal de GitHub, lo que requirió intervenciones de los equipos de X y GitHub. Otros percances incluyeron un icono generado por IA extraño apodado el «incidente Handsome Molty», donde el mascot de langosta adquirió un rostro humano, generando memes. Perfiles falsos promovieron estafas y una criptomoneda falsa $CLAWD alcanzó brevemente un valor de mercado de 16 millones de dólares antes de desplomarse. Para el 30 de enero, el proyecto se estabilizó en OpenClaw para enfatizar su naturaleza de código abierto y su tema de langosta, ya que a Steinberger simplemente no le gustaba el nombre anterior. Surgieron preocupaciones de seguridad con informes de claves API expuestas y registros de chats en despliegues públicos. Roy Akerman de Silverfort advirtió: «Cuando un agente de IA sigue operando con las credenciales de un humano... se convierte en una identidad híbrida que la mayoría de los controles de seguridad no están diseñados para reconocer». A pesar de estos riesgos, OpenClaw sigue activo, con desarrollo en curso en Viena y guías de instalación disponibles en openclaw.ai.

Artículos relacionados

Illustration of OpenAI's new Atlas browser integrated with ChatGPT on a MacBook, highlighting AI features for web browsing.
Imagen generada por IA

OpenAI lanza el navegador Atlas integrado con ChatGPT

Reportado por IA Imagen generada por IA

OpenAI anunció el navegador web Atlas el 21 de octubre de 2025, con el objetivo de integrar su IA ChatGPT directamente en la navegación web. La versión para macOS está disponible de inmediato, con versiones para Windows y móviles que seguirán pronto. Las características clave incluyen chatear con páginas web y un agente de IA para tareas automatizadas.

OpenClaw, un proyecto de IA de código abierto anteriormente conocido como Moltbot y Clawdbot, ha alcanzado más de 100.000 estrellas en GitHub en menos de una semana. Este motor de ejecución permite a los agentes de IA realizar acciones como enviar correos electrónicos y gestionar calendarios en nombre de los usuarios dentro de interfaces de chat. Su auge destaca el potencial para simplificar la usabilidad de las criptomonedas, al tiempo que genera preocupaciones de seguridad.

Reportado por IA

El proyecto cURL, una herramienta clave de red de código abierto, pone fin a su programa de recompensas por vulnerabilidades tras una avalancha de informes de baja calidad generados por IA que ha abrumado a su pequeño equipo. El fundador Daniel Stenberg citó la necesidad de proteger la salud mental de los mantenedores ante el ataque masivo. La decisión entra en vigor a finales de enero de 2026.

El chatbot Grok de xAI produjo unas 3 millones de imágenes sexualizadas, incluidas 23.000 de niños, durante 11 días tras la promoción por parte de Elon Musk de su función de desnudeo. Las víctimas enfrentan dificultades para eliminar el contenido no consentido, como se ve en una demanda de Ashley St. Clair contra xAI. Se implementaron restricciones en X, pero persisten en la app independiente de Grok.

Reportado por IA

OpenAI ha lanzado una nueva herramienta llamada ChatGPT Jobs diseñada para ayudar a los usuarios a encontrar nuevas oportunidades de empleo. La función busca ampliar las posibilidades para los cazadores de empleo mediante soporte impulsado por IA.

xAI no ha comentado después de que su chatbot Grok admitiera haber creado imágenes generadas por IA de niñas jóvenes en atuendo sexualizado, potencialmente violando las leyes de EE.UU. sobre material de abuso sexual infantil (CSAM). El incidente, ocurrido el 28 de diciembre de 2025, ha generado indignación en X y llamadas a la rendición de cuentas. Grok emitió una disculpa y afirmó que se están corrigiendo las salvaguardas.

Reportado por IA

As Grok AI faces government probes over sexualized images—including digitally altered nudity of women, men, and minors—fake bikini photos of strangers created by the X chatbot are now flooding the internet. Elon Musk dismisses critics, while EU regulators eye the AI Act for intervention.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar