AerynOS rechaza el uso de LLM en contribuciones por preocupaciones éticas

AerynOS, una distribución Linux en fase alfa, ha implementado una política que prohíbe los modelos de lenguaje grandes en su desarrollo y actividades comunitarias. La medida aborda problemas éticos con los datos de entrenamiento, impactos ambientales y riesgos de calidad. Las excepciones se limitan a necesidades de traducción y accesibilidad.

AerynOS, una distribución Linux centrada en actualizaciones atómicas y aún en su fase alfa, ha actualizado sus directrices de contribución para prohibir el uso de modelos de lenguaje grandes (LLM) en todo el proyecto. Esta decisión, anunciada en Reddit, se aplica a todos los aspectos del desarrollo y la participación comunitaria, incluyendo código fuente, documentación, informes de problemas y arte gráfico. El política surge de varias preocupaciones clave. Los desarrolladores destacan problemas éticos con la forma en que se entrenan los LLM, incluyendo la obtención de datos. También señalan los altos costos ambientales, como el consumo excesivo de electricidad y agua involucrado en la construcción y operación de estos modelos. Además, hay preocupaciones sobre cómo el contenido generado por LLM podría degradar la calidad general de las contribuciones y plantear posibles problemas de derechos de autor. Aunque la prohibición es integral, AerynOS permite excepciones limitadas. Los colaboradores pueden usar LLM solo para traducir texto al inglés en problemas o comentarios. El proyecto podría considerar más permisos para fines de accesibilidad. En cuanto al soporte al usuario, el equipo desaconseja depender de chatbots de IA en lugar de la documentación oficial. Las solicitudes basadas en salidas inexactas de LLM corren el riesgo de ser ignoradas, ya que los mantenedores buscan evitar depurar errores de terceros. Esta política visionaria busca asegurar que todas las contribuciones pasen por revisión humana, manteniendo así los estándares técnicos y la fiabilidad del proyecto. Refleja una tendencia creciente entre iniciativas de código abierto para examinar la integración de IA en medio de debates más amplios sobre sus implicaciones.

Artículos relacionados

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Imagen generada por IA

Linux Foundation lanza Agentic AI Foundation

Reportado por IA Imagen generada por IA

La Linux Foundation ha lanzado la Agentic AI Foundation para fomentar la colaboración abierta en sistemas de IA autónomos. Grandes empresas tecnológicas, incluidas Anthropic, OpenAI y Block, han contribuido con proyectos clave de código abierto para promover la interoperabilidad y evitar el cierre de proveedores. La iniciativa busca crear estándares neutrales para agentes de IA que puedan tomar decisiones y ejecutar tareas de manera independiente.

El proyecto de código abierto LLVM ha introducido una nueva política que permite código generado por IA en las contribuciones, siempre que humanos revisen y comprendan las presentaciones. Este enfoque de «humano en el bucle» asegura la responsabilidad al abordar las preocupaciones de la comunidad sobre la transparencia. La política, desarrollada con aportes de los contribuyentes, equilibra la innovación con la fiabilidad en el desarrollo de software.

Reportado por IA

Linus Torvalds, creador del kernel de Linux, ha criticado los esfuerzos por establecer reglas para envíos de código generado por IA, llamándolos inútiles. En un correo electrónico reciente, argumentó que dichas políticas no disuadirían a contribuyentes maliciosos y urgió enfocarse en la calidad del código. Esta postura destaca las tensiones continuas en el desarrollo de código abierto respecto a herramientas de inteligencia artificial.

Linus Torvalds, creador del kernel de Linux, ha criticado duramente las discusiones sobre contenido generado por IA en la documentación del kernel. Calificó las charlas sobre 'slop de IA' de inútiles y estúpidas. Los comentarios destacan las tensiones continuas en torno a la IA en el desarrollo de código abierto.

Reportado por IA

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

La herramienta b4 para el desarrollo del kernel de Linux está probando internamente su agente de IA diseñado para asistir en revisiones de código. Este paso, conocido como dog-feeding, marca una aplicación práctica de la función de IA en el proceso de desarrollo de la herramienta. La actualización proviene de Phoronix, una fuente clave de noticias sobre Linux.

Reportado por IA

Un informe de The Guardian ha revelado que el último modelo de IA de OpenAI, GPT-5.2, recurre a Grokipedia, una enciclopedia en línea impulsada por xAI, al tratar cuestiones sensibles como el Holocausto y la política iraní. Aunque se promociona para tareas profesionales, las pruebas cuestionan la fiabilidad de sus fuentes. OpenAI defiende su enfoque al enfatizar búsquedas web amplias con medidas de seguridad.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar