LLVM implementa política de IA que requiere supervisión humana

El proyecto de código abierto LLVM ha introducido una nueva política que permite código generado por IA en las contribuciones, siempre que humanos revisen y comprendan las presentaciones. Este enfoque de «humano en el bucle» asegura la responsabilidad al abordar las preocupaciones de la comunidad sobre la transparencia. La política, desarrollada con aportes de los contribuyentes, equilibra la innovación con la fiabilidad en el desarrollo de software.

LLVM, una colección fundamental de componentes de compiladores y herramientas utilizado en proyectos como Clang, Rust, Swift y el kernel de Linux, ha adoptado una política sobre el uso de herramientas de IA en las contribuciones. Publicada el 22 de enero de 2026, las directrices permiten a los desarrolladores emplear cualquier herramienta de IA, pero enfatizan la responsabilidad total por el trabajo presentado. Bajo la política, los contribuyentes deben divulgar la herramienta de IA utilizada, ya sea en la descripción de la solicitud de extracción, el mensaje de commit o los detalles de autoría. Deben revisar y comprender sus presentaciones, justificarlas con confianza durante las revisiones y asegurar que merezcan la atención de un mantenedor. Las reglas aclaran que las violaciones se manejarán según los procesos comunitarios existentes. El proceso de desarrollo involucró una amplia participación de la comunidad. Un miembro de LLVM destacó discrepancias entre el manejo de IA del proyecto, el código de conducta y las prácticas reales, refiriéndose a una notable solicitud de extracción discutida en Hacker News donde se admitió el uso de IA después de la presentación, pero no se divulgó inicialmente. El mantenedor de LLVM Reid Kleckner lideró el esfuerzo. Su borrador inicial, inspirado en la política de IA de Fedora, proponía restricciones como limitar a los recién llegados a 150 líneas de código no de pruebas. Tras retroalimentación de reuniones y foros comunitarios, la versión final se centró en requisitos más explícitos, enfocándose en la preparación para revisión y la capacidad de responder preguntas en lugar de cláusulas vagas de propiedad. La Política de Uso de Herramientas de IA actualizada está ahora disponible en el sitio de documentación de LLVM, incluyendo ejemplos de trabajos asistidos por IA aceptables y directrices para violaciones. Esta medida alinea a LLVM con otras iniciativas de código abierto que se adaptan al creciente rol de la IA en el desarrollo.

Artículos relacionados

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Imagen generada por IA

Linux Foundation lanza Agentic AI Foundation

Reportado por IA Imagen generada por IA

La Linux Foundation ha lanzado la Agentic AI Foundation para fomentar la colaboración abierta en sistemas de IA autónomos. Grandes empresas tecnológicas, incluidas Anthropic, OpenAI y Block, han contribuido con proyectos clave de código abierto para promover la interoperabilidad y evitar el cierre de proveedores. La iniciativa busca crear estándares neutrales para agentes de IA que puedan tomar decisiones y ejecutar tareas de manera independiente.

Linus Torvalds, creador del kernel de Linux, ha criticado los esfuerzos por establecer reglas para envíos de código generado por IA, llamándolos inútiles. En un correo electrónico reciente, argumentó que dichas políticas no disuadirían a contribuyentes maliciosos y urgió enfocarse en la calidad del código. Esta postura destaca las tensiones continuas en el desarrollo de código abierto respecto a herramientas de inteligencia artificial.

Reportado por IA

La comunidad de desarrolladores de Linux ha pasado de debatir el rol de la IA a integrarla en los procesos de ingeniería del kernel. Los desarrolladores ahora usan IA para el mantenimiento de proyectos, aunque persisten preguntas sobre escribir código con ella. Las preocupaciones sobre derechos de autor y licencias de código abierto permanecen.

La herramienta b4 para el desarrollo del kernel de Linux está probando internamente su agente de IA diseñado para asistir en revisiones de código. Este paso, conocido como dog-feeding, marca una aplicación práctica de la función de IA en el proceso de desarrollo de la herramienta. La actualización proviene de Phoronix, una fuente clave de noticias sobre Linux.

Reportado por IA

OpenClaw, un proyecto de IA de código abierto anteriormente conocido como Moltbot y Clawdbot, ha alcanzado más de 100.000 estrellas en GitHub en menos de una semana. Este motor de ejecución permite a los agentes de IA realizar acciones como enviar correos electrónicos y gestionar calendarios en nombre de los usuarios dentro de interfaces de chat. Su auge destaca el potencial para simplificar la usabilidad de las criptomonedas, al tiempo que genera preocupaciones de seguridad.

Bandcamp ha prohibido la música generada total o sustancialmente por IA en su plataforma, con el objetivo de proteger el elemento humano en la creación musical. La política, anunciada el 14 de enero de 2026, permite a los usuarios denunciar contenido sospechoso de IA para su revisión y eliminación. Esta medida contrasta con otros servicios de streaming que luchan contra la avalancha de pistas producidas por IA.

Reportado por IA

Las discográficas y empresas tecnológicas están abordando el uso no autorizado de obras de artistas para entrenar generadores de música con IA como Udio y Suno. Acuerdos recientes con grandes sellos buscan crear nuevas fuentes de ingresos, mientras herramientas innovadoras prometen eliminar contenido sin licencia de los modelos de IA. Los artistas permanecen cautelosos ante el impacto de la tecnología en sus medios de vida.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar