LLVM implementa política de IA que requiere supervisión humana

El proyecto de código abierto LLVM ha introducido una nueva política que permite código generado por IA en las contribuciones, siempre que humanos revisen y comprendan las presentaciones. Este enfoque de «humano en el bucle» asegura la responsabilidad al abordar las preocupaciones de la comunidad sobre la transparencia. La política, desarrollada con aportes de los contribuyentes, equilibra la innovación con la fiabilidad en el desarrollo de software.

LLVM, una colección fundamental de componentes de compiladores y herramientas utilizado en proyectos como Clang, Rust, Swift y el kernel de Linux, ha adoptado una política sobre el uso de herramientas de IA en las contribuciones. Publicada el 22 de enero de 2026, las directrices permiten a los desarrolladores emplear cualquier herramienta de IA, pero enfatizan la responsabilidad total por el trabajo presentado. Bajo la política, los contribuyentes deben divulgar la herramienta de IA utilizada, ya sea en la descripción de la solicitud de extracción, el mensaje de commit o los detalles de autoría. Deben revisar y comprender sus presentaciones, justificarlas con confianza durante las revisiones y asegurar que merezcan la atención de un mantenedor. Las reglas aclaran que las violaciones se manejarán según los procesos comunitarios existentes. El proceso de desarrollo involucró una amplia participación de la comunidad. Un miembro de LLVM destacó discrepancias entre el manejo de IA del proyecto, el código de conducta y las prácticas reales, refiriéndose a una notable solicitud de extracción discutida en Hacker News donde se admitió el uso de IA después de la presentación, pero no se divulgó inicialmente. El mantenedor de LLVM Reid Kleckner lideró el esfuerzo. Su borrador inicial, inspirado en la política de IA de Fedora, proponía restricciones como limitar a los recién llegados a 150 líneas de código no de pruebas. Tras retroalimentación de reuniones y foros comunitarios, la versión final se centró en requisitos más explícitos, enfocándose en la preparación para revisión y la capacidad de responder preguntas en lugar de cláusulas vagas de propiedad. La Política de Uso de Herramientas de IA actualizada está ahora disponible en el sitio de documentación de LLVM, incluyendo ejemplos de trabajos asistidos por IA aceptables y directrices para violaciones. Esta medida alinea a LLVM con otras iniciativas de código abierto que se adaptan al creciente rol de la IA en el desarrollo.

Artículos relacionados

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Imagen generada por IA

Linux Foundation lanza Agentic AI Foundation

Reportado por IA Imagen generada por IA

La Linux Foundation ha lanzado la Agentic AI Foundation para fomentar la colaboración abierta en sistemas de IA autónomos. Grandes empresas tecnológicas, incluidas Anthropic, OpenAI y Block, han contribuido con proyectos clave de código abierto para promover la interoperabilidad y evitar el cierre de proveedores. La iniciativa busca crear estándares neutrales para agentes de IA que puedan tomar decisiones y ejecutar tareas de manera independiente.

Linus Torvalds, creador del kernel de Linux, ha criticado los esfuerzos por establecer reglas para envíos de código generado por IA, llamándolos inútiles. En un correo electrónico reciente, argumentó que dichas políticas no disuadirían a contribuyentes maliciosos y urgió enfocarse en la calidad del código. Esta postura destaca las tensiones continuas en el desarrollo de código abierto respecto a herramientas de inteligencia artificial.

Reportado por IA

La comunidad de desarrolladores de Linux ha pasado de debatir el rol de la IA a integrarla en los procesos de ingeniería del kernel. Los desarrolladores ahora usan IA para el mantenimiento de proyectos, aunque persisten preguntas sobre escribir código con ella. Las preocupaciones sobre derechos de autor y licencias de código abierto permanecen.

Linus Torvalds, creador del kernel de Linux, ha criticado duramente las discusiones sobre contenido generado por IA en la documentación del kernel. Calificó las charlas sobre 'slop de IA' de inútiles y estúpidas. Los comentarios destacan las tensiones continuas en torno a la IA en el desarrollo de código abierto.

Reportado por IA

Un vicepresidente de AMD ha utilizado IA para desarrollar un controlador de espacio de usuario Radeon para Linux escrito en Python. Un ingeniero senior de IA involucrado en el proyecto afirmó que no abrió un editor de código ni una sola vez durante el proceso. La herramienta utilizada fue Claude Code, que construyó un controlador de cómputo Radeon.

La Linux Foundation, en colaboración con Meta, publicó un informe en la Cumbre de Impacto de la IA en India en Nueva Delhi el 17 de febrero de 2026, destacando cómo la IA de código abierto impulsa el crecimiento económico de India. El estudio revela que el 76 % de las startups indias utilizan IA de código abierto, con el mercado proyectado para expandirse de 6.000 millones de dólares en 2024 a casi 32.000 millones en 2031. También aborda los desafíos de la fuerza laboral y las aplicaciones sociales de la tecnología.

Reportado por IA

La publicación de la versión 7.0 de la biblioteca Python de código abierto chardet ha generado controversia sobre si una reescritura asistida por IA puede cambiar su licencia original restrictiva. El mantenedor Dan Blanchard utilizó la herramienta Claude de Anthropic para crear una versión más rápida con licencia MIT, pero el autor original Mark Pilgrim sostiene que viola los términos de la LGPL. El caso destaca preguntas legales y éticas emergentes en el código generado por IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar