Anthropic

Seguir
Illustration of Anthropic restricting Claude Mythos AI and launching Project Glasswing consortium with tech giants to address cybersecurity vulnerabilities.
Imagen generada por IA

Anthropic restringe el lanzamiento de la IA Claude Mythos y pone en marcha el Project Glasswing ante los riesgos de ciberseguridad

Reportado por IA Imagen generada por IA

Anthropic ha limitado el acceso a su modelo de IA Claude Mythos Preview debido a su capacidad superior para detectar y explotar vulnerabilidades de software, al tiempo que lanza el Project Glasswing—un consorcio con más de 45 empresas tecnológicas, incluidas Apple, Google y Microsoft—para parchear fallos y reforzar las defensas de forma colaborativa. El anuncio se produce tras las recientes filtraciones de datos en la firma.

Anthropic habría acordado pagar 200.000 millones de dólares a Google durante los próximos cinco años para acceder a chips y servidores en la nube. El acuerdo, reportado por The Information, sigue a un pacto anterior que otorgaba al creador de la IA Claude acceso a la infraestructura de Google. Esto pone de relieve las enormes inversiones que impulsan el sector de la inteligencia artificial.

Reportado por IA

Tras la revelación de la semana pasada que provocó alarmas mundiales, Anthropic ha restringido su potente IA Mythos —capaz de encontrar vulnerabilidades de ciberseguridad— a empresas seleccionadas bajo el Proyecto Glasswing, incluidas Amazon Web Services, Apple y Google, después de que una filtración accidental generara preocupaciones sobre la seguridad nacional.

Basándose en su función Cowork lanzada en enero, Anthropic ha presentado una vista previa de investigación para las herramientas Claude Code y Cowork, lo que permite que la IA Claude de los suscriptores Pro y Max controle directamente los escritorios Mac: señalando, haciendo clic, desplazándose y navegando por las pantallas para realizar tareas como abrir archivos, usar navegadores, herramientas de desarrollo e interacciones en aplicaciones como Google Calendar y Slack. Las medidas de seguridad abordan los riesgos, en medio de la competencia de herramientas como OpenClaw.

Reportado por IA

La compañía de derechos musicales BMG ha presentado una demanda contra la empresa de inteligencia artificial Anthropic, alegando el uso no autorizado de letras de canciones para entrenar a su chatbot Claude. Según la demanda, la infracción se remonta a la fundación de Anthropic y afecta a obras de artistas como Justin Bieber y Bruno Mars. BMG solicita una indemnización de hasta 150.000 dólares por obra infringida.

La Fundación de Software Python ha asegurado 1,5 millones de dólares de Anthropic, la empresa detrás de Claude AI, para una asociación de dos años centrada en mejorar la seguridad del ecosistema Python. Esto sigue al rechazo de la fundación de una financiación similar del gobierno de EE. UU. el año pasado por preocupaciones sobre políticas de diversidad, equidad e inclusión. La inversión busca proteger el Python Package Index de ataques a la cadena de suministro y apoyar las operaciones continuas.

Reportado por IA

Un nuevo artículo de investigación de Anthropic revela que los grandes modelos de lenguaje exhiben cierta conciencia introspectiva de sus procesos internos, pero esta capacidad es altamente inconsistente e poco fiable. Publicado el 3 de noviembre de 2025, el estudio titulado 'Emergent Introspective Awareness in Large Language Models' utiliza métodos innovadores para probar la auto-descripción de la IA. A pesar de éxitos ocasionales, los fallos de introspección siguen siendo la norma.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar