LLVM implementa política de IA que requiere supervisión humana

El proyecto de código abierto LLVM ha introducido una nueva política que permite código generado por IA en las contribuciones, siempre que humanos revisen y comprendan las presentaciones. Este enfoque de «humano en el bucle» asegura la responsabilidad al abordar las preocupaciones de la comunidad sobre la transparencia. La política, desarrollada con aportes de los contribuyentes, equilibra la innovación con la fiabilidad en el desarrollo de software.

LLVM, una colección fundamental de componentes de compiladores y herramientas utilizado en proyectos como Clang, Rust, Swift y el kernel de Linux, ha adoptado una política sobre el uso de herramientas de IA en las contribuciones. Publicada el 22 de enero de 2026, las directrices permiten a los desarrolladores emplear cualquier herramienta de IA, pero enfatizan la responsabilidad total por el trabajo presentado. Bajo la política, los contribuyentes deben divulgar la herramienta de IA utilizada, ya sea en la descripción de la solicitud de extracción, el mensaje de commit o los detalles de autoría. Deben revisar y comprender sus presentaciones, justificarlas con confianza durante las revisiones y asegurar que merezcan la atención de un mantenedor. Las reglas aclaran que las violaciones se manejarán según los procesos comunitarios existentes. El proceso de desarrollo involucró una amplia participación de la comunidad. Un miembro de LLVM destacó discrepancias entre el manejo de IA del proyecto, el código de conducta y las prácticas reales, refiriéndose a una notable solicitud de extracción discutida en Hacker News donde se admitió el uso de IA después de la presentación, pero no se divulgó inicialmente. El mantenedor de LLVM Reid Kleckner lideró el esfuerzo. Su borrador inicial, inspirado en la política de IA de Fedora, proponía restricciones como limitar a los recién llegados a 150 líneas de código no de pruebas. Tras retroalimentación de reuniones y foros comunitarios, la versión final se centró en requisitos más explícitos, enfocándose en la preparación para revisión y la capacidad de responder preguntas en lugar de cláusulas vagas de propiedad. La Política de Uso de Herramientas de IA actualizada está ahora disponible en el sitio de documentación de LLVM, incluyendo ejemplos de trabajos asistidos por IA aceptables y directrices para violaciones. Esta medida alinea a LLVM con otras iniciativas de código abierto que se adaptan al creciente rol de la IA en el desarrollo.

Artículos relacionados

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Imagen generada por IA

La Linux Foundation anuncia una iniciativa de seguridad de IA con socios tecnológicos

Reportado por IA Imagen generada por IA

La Linux Foundation ha lanzado una nueva iniciativa que utiliza la versión preliminar de Claude Mythos de Anthropic para la ciberseguridad defensiva en el software de código abierto. Entre los socios se incluyen AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA y Palo Alto Networks. El esfuerzo tiene como objetivo proteger el software crítico ante el auge de la IA para los mantenedores de código abierto.

El proyecto del kernel de Linux ha documentado oficialmente su política sobre las contribuciones de código asistido por IA con el lanzamiento de Linux 7.0. Las directrices exigen responsabilidad humana, la divulgación del uso de herramientas de IA y una nueva etiqueta 'Assisted-by' para los parches que involucren IA. Sasha Levin formalizó el consenso alcanzado en la Cumbre de Mantenedores de 2025.

Reportado por IA

Greg Kroah-Hartman, mantenedor del núcleo de Linux, ha declarado que las herramientas de revisión de código basadas en inteligencia artificial se han vuelto genuinamente útiles. El experto comentó a The Register que la tecnología alcanzó un punto de inflexión hace aproximadamente un mes, lo que ha derivado en informes de errores procesables.

Investigadores han utilizado inteligencia artificial para identificar un aumento significativo de rendimiento en el subsistema IO_uring de Linux. El descubrimiento revela una mejora de 50-80 veces en la eficiencia. Este hallazgo resalta el papel de la IA en la optimización de software de código abierto.

Reportado por IA

En la Cumbre de Impacto de la IA en India, el primer ministro Narendra Modi describió la inteligencia artificial como un punto de inflexión en la historia humana que podría reorientar la dirección de la civilización. Expresó preocupación por la forma de IA que se entregará a las generaciones futuras y enfatizó hacerla centrada en el ser humano y responsable. Los expertos han advertido sobre riesgos como la privacidad de datos, deepfakes y armas autónomas.

El mantenedor del kernel estable de Linux, Greg Kroah-Hartman, ha comenzado a emplear una herramienta de fuzzing asistida por inteligencia artificial en una rama denominada 'clanker' para probar el código base del kernel. La herramienta ya ha propiciado la corrección de vulnerabilidades en subsistemas como ksmbd y SMB. Los parches derivados de este esfuerzo cubren ahora áreas que incluyen USB, HID, WiFi y redes.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar