El gobierno del Reino Unido busca atraer a Anthropic para ampliar sus oficinas en Londres

El Departamento de Ciencia, Innovación y Tecnología del Reino Unido ha propuesto que Anthropic amplíe su oficina en Londres y considere una posible cotización bursátil dual, según un informe del Financial Times. Este esfuerzo surge tras una disputa entre la empresa de IA con sede en San Francisco y el Departamento de Defensa de los Estados Unidos. Los funcionarios buscan atraer a Anthropic en medio de las tensiones actuales.

El personal del Departamento de Ciencia, Innovación y Tecnología del Reino Unido ha elaborado propuestas para que Anthropic aumente su presencia en Londres, lo que incluye la expansión de sus oficinas y una posible cotización dual en los mercados británicos. El Financial Times citó fuentes cercanas a las conversaciones, señalando que estas iniciativas se han intensificado en las últimas semanas debido a los desacuerdos de Anthropic con el gobierno de los Estados Unidos. La empresa de San Francisco ya mantiene una oficina en la ciudad, pero enfrenta la competencia de rivales como OpenAI, que se comprometió a una mayor expansión allí en febrero. El conflicto de Anthropic con el Departamento de Defensa de los Estados Unidos estalló a principios de este año cuando la compañía se negó a modificar ciertas medidas de seguridad de IA, conocidas como "guardrails". En respuesta, el Departamento de Defensa rescindió un contrato y calificó a Anthropic como un riesgo para la cadena de suministro, aunque una orden judicial ha suspendido esa designación por el momento. Fuentes informaron al Financial Times que la disputa continúa sin resolución. El CEO de Anthropic, Dario Amodei, planea una visita al Reino Unido en mayo, según el informe. Los funcionarios británicos ven una oportunidad para fortalecer su sector de IA atrayendo talento e inversión clave frente a los desafíos que enfrenta la empresa en Estados Unidos.

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Reportado por IA Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

Reportado por IA

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Cientos de empleados de Google y OpenAI han firmado una carta abierta en solidaridad con Anthropic, instando a sus empresas a resistir las demandas del Pentágono para el uso militar sin restricciones de modelos de IA. La carta se opone a usos que involucren vigilancia masiva doméstica y asesinatos autónomos sin supervisión humana. Esto llega en medio de amenazas del secretario de Defensa de EE.UU., Pete Hegseth, de etiquetar a Anthropic como un riesgo en la cadena de suministro.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

La herramienta de IA Claude Cowork de Anthropic ha provocado una fuerte caída en las acciones de Infosys, TCS y otras empresas SaaS. Estas compañías perdieron cientos de miles de millones de dólares en valor de mercado. El desencadenante es el auge de la IA.

Reportado por IA

Anthropic ha extendido su capacidad de memoria al nivel gratuito de su chatbot de IA Claude, permitiendo a los usuarios hacer referencia a conversaciones pasadas. La compañía también lanzó una herramienta para importar memorias de chatbots competidores como ChatGPT y Gemini. Esta actualización coincide con el aumento de popularidad de Claude en medio de una disputa con el Departamento de Defensa de EE.UU.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar