La app de Claude AI lidera la App Store en medio del rechazo a la prohibición del Gobierno de EE. UU.

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

En una notable respuesta del mercado de consumo a las crecientes tensiones con el Gobierno de EE. UU., la app de Claude AI de Anthropic escaló al número uno en el leaderboard de Top Apps Gratuitas de la App Store a fecha de 1 de marzo de 2026, relegando a ChatGPT de OpenAI al segundo puesto y a Google Gemini al tercero. Este repunte sigue a la orden del presidente Trump del 27 de febrero que prohíbe a las agencias federales usar Claude, motivada por la negativa de Anthropic a eliminar las barreras de seguridad contra la vigilancia masiva o las armas autónomas, detalles cubiertos en informes previos. El secretario de Defensa Pete Hegseth había amenazado con designar a Anthropic como 'riesgo en la cadena de suministro' tras la firme postura de la empresa en prioridades de seguridad. La reacción pública parece haber impulsado las descargas, aumentando la visibilidad de Claude a pesar de las restricciones federales. OpenAI ha intervenido con un acuerdo con el Departamento de Defensa para cubrir el vacío. El CEO de OpenAI, Sam Altman, se pronunció en un AMA en X, calificando la designación de riesgo para Anthropic de 'una decisión muy mala' y 'un precedente aterrador', mientras espera una reversión y un mejor resultado. Este episodio subraya las divisiones entre las posturas de seguridad de las empresas de IA y las demandas gubernamentales, con Claude prosperando comercialmente incluso cuando termina el acceso federal.

Artículos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagen generada por IA

Trump ordena prohibición federal de la IA de Anthropic para uso gubernamental

Reportado por IA Imagen generada por IA

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

Reportado por IA Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

La startup Anthropic ha revelado Claude Mythos, un modelo de IA con capacidad para identificar y explotar brechas de ciberseguridad en sistemas operativos y navegadores. Ante el riesgo de uso por ciberdelincuentes, no lo liberará públicamente y lo restringe a una coalición de empresas tecnológicas. El secretario del Tesoro de EE UU ha convocado a bancos para alertar sobre estos peligros.

Reportado por IA

Anthropic ha lanzado un complemento en versión beta que integra su asistente de inteligencia artificial Claude en Microsoft Word, ya disponible para los clientes de los planes Team y Enterprise. Esta integración permite a los usuarios generar contenido nuevo, editar documentos y gestionar comentarios dentro de la aplicación, ofreciendo así una alternativa al Copilot de Microsoft.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar