AerynOS rechaza el uso de LLM en contribuciones por preocupaciones éticas

AerynOS, una distribución Linux en fase alfa, ha implementado una política que prohíbe los modelos de lenguaje grandes en su desarrollo y actividades comunitarias. La medida aborda problemas éticos con los datos de entrenamiento, impactos ambientales y riesgos de calidad. Las excepciones se limitan a necesidades de traducción y accesibilidad.

AerynOS, una distribución Linux centrada en actualizaciones atómicas y aún en su fase alfa, ha actualizado sus directrices de contribución para prohibir el uso de modelos de lenguaje grandes (LLM) en todo el proyecto. Esta decisión, anunciada en Reddit, se aplica a todos los aspectos del desarrollo y la participación comunitaria, incluyendo código fuente, documentación, informes de problemas y arte gráfico. El política surge de varias preocupaciones clave. Los desarrolladores destacan problemas éticos con la forma en que se entrenan los LLM, incluyendo la obtención de datos. También señalan los altos costos ambientales, como el consumo excesivo de electricidad y agua involucrado en la construcción y operación de estos modelos. Además, hay preocupaciones sobre cómo el contenido generado por LLM podría degradar la calidad general de las contribuciones y plantear posibles problemas de derechos de autor. Aunque la prohibición es integral, AerynOS permite excepciones limitadas. Los colaboradores pueden usar LLM solo para traducir texto al inglés en problemas o comentarios. El proyecto podría considerar más permisos para fines de accesibilidad. En cuanto al soporte al usuario, el equipo desaconseja depender de chatbots de IA en lugar de la documentación oficial. Las solicitudes basadas en salidas inexactas de LLM corren el riesgo de ser ignoradas, ya que los mantenedores buscan evitar depurar errores de terceros. Esta política visionaria busca asegurar que todas las contribuciones pasen por revisión humana, manteniendo así los estándares técnicos y la fiabilidad del proyecto. Refleja una tendencia creciente entre iniciativas de código abierto para examinar la integración de IA en medio de debates más amplios sobre sus implicaciones.

Artículos relacionados

El proyecto de código abierto LLVM ha introducido una nueva política que permite código generado por IA en las contribuciones, siempre que humanos revisen y comprendan las presentaciones. Este enfoque de «humano en el bucle» asegura la responsabilidad al abordar las preocupaciones de la comunidad sobre la transparencia. La política, desarrollada con aportes de los contribuyentes, equilibra la innovación con la fiabilidad en el desarrollo de software.

Reportado por IA

Tras su lanzamiento en enero, la Linux Foundation está promoviendo su curso LFWS307 'Desplegando modelos de lenguaje pequeños', destacando el despliegue de SLM como una habilidad clave de IA para profesionales de TI. La formación enfatiza modelos eficientes y portátiles mediante laboratorios prácticos, alineándose con las tendencias de MLOps y Edge AI.

Los expertos en ciberseguridad advierten que los hackers están aprovechando modelos de lenguaje grandes (LLMs) para crear ataques de phishing sofisticados. Estas herramientas de IA permiten generar páginas de phishing sobre la marcha, lo que podría hacer las estafas más dinámicas y difíciles de detectar. Esta tendencia resalta las amenazas en evolución en la seguridad digital.

Reportado por IA

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar