El proyecto de código abierto LLVM ha introducido una nueva política que permite código generado por IA en las contribuciones, siempre que humanos revisen y comprendan las presentaciones. Este enfoque de «humano en el bucle» asegura la responsabilidad al abordar las preocupaciones de la comunidad sobre la transparencia. La política, desarrollada con aportes de los contribuyentes, equilibra la innovación con la fiabilidad en el desarrollo de software.
LLVM, una colección fundamental de componentes de compiladores y herramientas utilizado en proyectos como Clang, Rust, Swift y el kernel de Linux, ha adoptado una política sobre el uso de herramientas de IA en las contribuciones. Publicada el 22 de enero de 2026, las directrices permiten a los desarrolladores emplear cualquier herramienta de IA, pero enfatizan la responsabilidad total por el trabajo presentado. Bajo la política, los contribuyentes deben divulgar la herramienta de IA utilizada, ya sea en la descripción de la solicitud de extracción, el mensaje de commit o los detalles de autoría. Deben revisar y comprender sus presentaciones, justificarlas con confianza durante las revisiones y asegurar que merezcan la atención de un mantenedor. Las reglas aclaran que las violaciones se manejarán según los procesos comunitarios existentes. El proceso de desarrollo involucró una amplia participación de la comunidad. Un miembro de LLVM destacó discrepancias entre el manejo de IA del proyecto, el código de conducta y las prácticas reales, refiriéndose a una notable solicitud de extracción discutida en Hacker News donde se admitió el uso de IA después de la presentación, pero no se divulgó inicialmente. El mantenedor de LLVM Reid Kleckner lideró el esfuerzo. Su borrador inicial, inspirado en la política de IA de Fedora, proponía restricciones como limitar a los recién llegados a 150 líneas de código no de pruebas. Tras retroalimentación de reuniones y foros comunitarios, la versión final se centró en requisitos más explícitos, enfocándose en la preparación para revisión y la capacidad de responder preguntas en lugar de cláusulas vagas de propiedad. La Política de Uso de Herramientas de IA actualizada está ahora disponible en el sitio de documentación de LLVM, incluyendo ejemplos de trabajos asistidos por IA aceptables y directrices para violaciones. Esta medida alinea a LLVM con otras iniciativas de código abierto que se adaptan al creciente rol de la IA en el desarrollo.