Tecnología de IA

Seguir
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagen generada por IA

El Pentágono cuestiona los límites antropogénicos del uso militar de Claude mientras se tensan las negociaciones del contrato

Reportado por IA Imagen generada por IA Verificado por hechos

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

En la Game Developers Conference 2026 de San Francisco, las herramientas de IA generativa provocaron reacciones divididas, con demostraciones de Google que destacaron usos potenciales en medio del escepticismo generalizado de los desarrolladores. Un informe reciente del sector reveló que el 52% de las empresas utilizan esta tecnología, pero solo el 36% de los trabajadores la incorpora en sus labores, y el 52% la considera perjudicial para el sector.

Reportado por IA

Tras informes anteriores de ataques directos a agentes de IA de OpenClaw, TechRadar advierte de que los infosecuestradores se están disfrazando ahora de Claude Code, OpenClaw y otras herramientas de desarrollo de IA. Los usuarios deben tener cuidado con los resultados de los motores de búsqueda. Publicado el 18 de marzo de 2026.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar