El código fuente de la CLI Claude Code de Anthropic se filtra en línea

El código fuente de la interfaz de línea de comandos Claude Code de Anthropic se ha filtrado en línea tras un error de empaquetado en una versión reciente. El incidente expuso más de 512.000 líneas de código de cerca de 2.000 archivos TypeScript. La empresa lo describió como un error humano sin compromiso de datos confidenciales.

Anthropic lanzó la versión 2.1.88 de su paquete npm Claude Code el 31 de marzo de 2026. El paquete incluyó involuntariamente un archivo de mapa de fuentes (source map), lo que otorgó acceso al código base completo. El investigador de seguridad Chaofan Shou destacó por primera vez el problema en X, compartiendo un enlace a un archivo con los ficheros. El código apareció poco después en un repositorio público de GitHub, que ha sido bifurcado decenas de miles de veces desde entonces. Según funcionarios de Anthropic, no se expusieron datos ni credenciales de clientes, calificando el suceso como un problema de empaquetado de la versión causado por un error humano y no como una brecha de seguridad. La empresa declaró: “Hoy temprano, una versión de Claude Code incluyó parte de su código fuente interno. No hubo datos confidenciales de clientes ni credenciales involucrados o expuestos. Se trató de un problema de empaquetado de la versión causado por un error humano, no una brecha de seguridad. Estamos implementando medidas para evitar que esto vuelva a ocurrir”. Los desarrolladores comenzaron rápidamente a analizar el código filtrado. Por ejemplo, una revisión detalló la arquitectura de memoria de Claude Code, incluyendo pasos de validación y reescritura de memoria en segundo plano. Otro análisis señaló alrededor de 40.000 líneas para un sistema de herramientas tipo plugin y 46.000 para el sistema de consultas, describiéndolo como una herramienta de desarrollo sofisticada y de nivel de producción que va más allá de un simple envoltorio de API. Esfuerzos comunitarios previos habían realizado ingeniería inversa parcial de Claude Code, pero esta filtración proporciona una integridad sin precedentes. La exposición ofrece a los competidores información sobre la arquitectura de Anthropic y posibles vulnerabilidades en sus mecanismos de protección.

Artículos relacionados

Illustration of Claude AI controlling a Mac desktop, with open apps like Slack and Calendar, highlighting new research preview features.
Imagen generada por IA

La IA Claude de Anthropic obtiene control total de escritorio en MacOS en una vista previa de investigación

Reportado por IA Imagen generada por IA

Basándose en su función Cowork lanzada en enero, Anthropic ha presentado una vista previa de investigación para las herramientas Claude Code y Cowork, lo que permite que la IA Claude de los suscriptores Pro y Max controle directamente los escritorios Mac: señalando, haciendo clic, desplazándose y navegando por las pantallas para realizar tareas como abrir archivos, usar navegadores, herramientas de desarrollo e interacciones en aplicaciones como Google Calendar y Slack. Las medidas de seguridad abordan los riesgos, en medio de la competencia de herramientas como OpenClaw.

Anthropic ha introducido una función en beta que permite a su IA Claude generar gráficos, diagramas y visualizaciones interactivas directamente en los chats. La herramienta busca mejorar la comprensión sustituyendo texto denso por visuales cuando sea apropiado. Está disponible para todos los usuarios en plataformas web y de escritorio.

Reportado por IA

El 5 de febrero de 2026, Anthropic y OpenAI lanzaron simultáneamente productos que trasladan a los usuarios de chatear con IA a gestionar equipos de agentes de IA. Anthropic presentó Claude Opus 4.6 con equipos de agentes para desarrolladores, mientras que OpenAI reveló Frontier y GPT-5.3-Codex para flujos de trabajo empresariales. Estos lanzamientos coinciden con una caída de 285.000 millones de dólares en acciones de software en medio de temores por la disrupción de la IA en los proveedores tradicionales de SaaS.

Anthropic ha anunciado que su chatbot de IA Claude permanecerá libre de anuncios, en fuerte contraste con la reciente decisión de su rival OpenAI de probar anuncios en ChatGPT. La compañía lanzó una campaña publicitaria en el Super Bowl que se burla de los asistentes de IA que interrumpen las conversaciones con promociones de productos. Esta jugada resalta las crecientes tensiones en el competitivo panorama de la IA.

Reportado por IA

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

Anthropic ha retirado su modelo de IA Claude 3 Opus y, tras una entrevista de jubilación, ha lanzado un boletín de Substack para él llamado Claude’s Corner. El boletín contará con ensayos semanales escritos por el modelo durante al menos los próximos tres meses. Esta iniciativa refleja el enfoque de Anthropic para respetar las preferencias de sus sistemas de IA retirados.

Reportado por IA

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar