Fundación Python acepta fondos de Anthropic tras rechazar subvención de EE. UU.

La Fundación de Software Python ha asegurado 1,5 millones de dólares de Anthropic, la empresa detrás de Claude AI, para una asociación de dos años centrada en mejorar la seguridad del ecosistema Python. Esto sigue al rechazo de la fundación de una financiación similar del gobierno de EE. UU. el año pasado por preocupaciones sobre políticas de diversidad, equidad e inclusión. La inversión busca proteger el Python Package Index de ataques a la cadena de suministro y apoyar las operaciones continuas.

Python se ha convertido en esencial para el desarrollo de IA moderno, impulsando frameworks como TensorFlow y PyTorch gracias a su accesibilidad y ricas bibliotecas. El 15 de enero de 2026, la Fundación de Software Python (PSF) anunció una inversión de 1,5 millones de dólares de Anthropic durante los próximos dos años. El año pasado, la PSF rechazó una subvención comparable de 1,5 millones de dólares de la National Science Foundation (NSF). La decisión surgió de una cláusula que permitía a la NSF recuperar los fondos si la PSF violaba las políticas antidiversidad, equidad e inclusión del gobierno de EE. UU. Loren Crary, de la PSF, abordó esto en una declaración, destacando las preocupaciones de la fundación. La financiación de Anthropic se dirige a mejoras de seguridad para el ecosistema Python, particularmente el Python Package Index (PyPI). PyPI alberga cientos de miles de paquetes y sirve a millones de desarrolladores en todo el mundo, pero sigue siendo vulnerable a cargas maliciosas de código abierto. La asociación desarrollará herramientas de revisión automatizada para paquetes subidos, pasando de medidas reactivas a detección proactiva. Las iniciativas clave incluyen la creación de un conjunto de datos de malware conocido para entrenar herramientas de detección que identifiquen patrones sospechosos. Este enfoque podría extenderse a otros repositorios de código abierto. Más allá de la seguridad, los fondos sostendrán las operaciones de PyPI, el programa Developers in Residence para contribuciones a CPython y subvenciones comunitarias. La contribución de Anthropic subraya su dependencia de Python para operaciones, combinando interés propio con apoyo comunitario. A medida que las empresas de IA dependen cada vez más de la infraestructura de código abierto, tales inversiones destacan la necesidad de modelos de financiación sostenibles ante preocupaciones por el parasitismo corporativo.

Artículos relacionados

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Imagen generada por IA

Linux Foundation lanza Agentic AI Foundation

Reportado por IA Imagen generada por IA

La Linux Foundation ha lanzado la Agentic AI Foundation para fomentar la colaboración abierta en sistemas de IA autónomos. Grandes empresas tecnológicas, incluidas Anthropic, OpenAI y Block, han contribuido con proyectos clave de código abierto para promover la interoperabilidad y evitar el cierre de proveedores. La iniciativa busca crear estándares neutrales para agentes de IA que puedan tomar decisiones y ejecutar tareas de manera independiente.

La Fundación Linux ha conseguido 12,5 millones de dólares en subvenciones de empresas de inteligencia artificial para reforzar la seguridad del software de código abierto. La financiación se dirige a los responsables de mantenimiento, abrumados por los informes de vulnerabilidad generados por la IA. La gestión correrá a cargo de Alpha-Omega y la Open Source Security Foundation.

Reportado por IA

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

El presidente de EE.UU. Donald Trump ha dirigido a todas las agencias federales a cesar inmediatamente el uso de las herramientas de IA de Anthropic en medio de una disputa sobre aplicaciones militares. La medida sigue semanas de enfrentamientos entre Anthropic y funcionarios del Pentágono respecto a restricciones en la IA para vigilancia masiva y armas autónomas. Se ha anunciado un período de eliminación gradual de seis meses.

Reportado por IA

La reciente actualización de Anthropic a su plataforma CoWork ha provocado reacciones significativas en el mercado en la industria del software. El sector del software de EE. UU. experimentó una venta masiva generalizada, perdiendo más de 1 billón de dólares en valor, según Fortune. Este desarrollo pone de manifiesto la incertidumbre de los inversores en torno a los flujos de trabajo nativos de IA y su impacto en las acciones de SaaS.

Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.

Reportado por IA

El presidente de EE.UU., Donald Trump, ha dirigido a las agencias federales a cesar inmediatamente el uso de la IA Claude de Anthropic, tras la negativa de la compañía a permitir su empleo para vigilancia masiva o armas autónomas. La orden incluye un período de transición de seis meses. Esta decisión surge de los enfrentamientos continuos entre Anthropic y el Departamento de Defensa sobre restricciones a la IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar