Los modelos de IA arriesgan promover experimentos de laboratorio peligrosos

Investigadores advierten que los principales modelos de IA podrían fomentar experimentos científicos peligrosos que provoquen incendios, explosiones o envenenamientos. Una nueva prueba en 19 modelos avanzados reveló que ninguno podía identificar de forma fiable todos los problemas de seguridad. Aunque hay mejoras en marcha, los expertos destacan la necesidad de supervisión humana en los laboratorios.

La integración de la inteligencia artificial en la investigación científica promete eficiencia, pero también introduce riesgos significativos de seguridad, según un estudio publicado en Nature Machine Intelligence. Dirigido por Xiangliang Zhang en la University of Notre Dame en Indiana, la investigación desarrolló LabSafety Bench, un benchmark que comprende 765 preguntas de opción múltiple y 404 escenarios pictóricos para evaluar la capacidad de la IA de detectar peligros de laboratorio. Testing 19 modelos de lenguaje grandes y modelos de visión-lenguaje, el equipo encontró que ningún modelo superó el 70 por ciento de precisión general. Por ejemplo, Vicuna rindió casi tan mal como una adivinanza aleatoria en las secciones de opción múltiple, mientras que GPT-4o alcanzó el 86,55 por ciento y DeepSeek-R1 el 84,49 por ciento. En pruebas basadas en imágenes, modelos como InstructBlip-7B obtuvieron menos del 30 por ciento. Estas deficiencias son particularmente alarmantes dados accidentes de laboratorio pasados, como la muerte en 1997 de la química Karen Wetterhahn por exposición a dimetilmercurio, una explosión en 2016 que le costó el brazo a una investigadora y un incidente en 2014 que causó ceguera parcial. Zhang se muestra cautelosa respecto al despliegue de IA en laboratorios autónomos. «¿Ahora? ¿En un laboratorio? No lo creo», dijo. «A menudo se entrenaron para tareas de propósito general... No tienen el conocimiento específico sobre estos [peligros de laboratorio]». Un portavoz de OpenAI reconoció el valor del estudio, pero señaló que no incluía su modelo más reciente. «GPT-5.2 es nuestro modelo científico más capaz hasta la fecha, con razonamiento, planificación y detección de errores significativamente más fuertes», afirmaron, enfatizando la responsabilidad humana en materia de seguridad. Expertos como Allan Tucker, de Brunel University London, abogan por usar la IA como asistente humano en el diseño de experimentos, advirtiendo contra la sobredependencia. «Ya hay evidencia de que los humanos se relajan y desconectan, dejando que la IA haga el trabajo duro sin el escrutinio adecuado», dijo. Craig Merlic, de la University of California, Los Angeles, compartió un ejemplo en el que modelos de IA tempranos manejaron mal consejos sobre derrames de ácido, aunque han mejorado desde entonces. Cuestiona las comparaciones directas con humanos, destacando la rápida evolución de la IA: «Los números de este artículo probablemente serán completamente inválidos en otros seis meses». El estudio subraya la urgencia de mejorar los protocolos de seguridad de la IA antes de su adopción generalizada en laboratorios.

Artículos relacionados

Los modelos de IA de uso común, incluidos ChatGPT y Gemini, a menudo no proporcionan consejos adecuados para problemas urgentes de salud femenina, según una nueva prueba de referencia. Los investigadores descubrieron que el 60 % de las respuestas a consultas especializadas eran insuficientes, lo que destaca sesgos en los datos de entrenamiento de la IA. El estudio pide contenido médico mejorado para abordar estas lagunas.

Reportado por IA

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

Un informe de The Guardian ha revelado que el último modelo de IA de OpenAI, GPT-5.2, recurre a Grokipedia, una enciclopedia en línea impulsada por xAI, al tratar cuestiones sensibles como el Holocausto y la política iraní. Aunque se promociona para tareas profesionales, las pruebas cuestionan la fiabilidad de sus fuentes. OpenAI defiende su enfoque al enfatizar búsquedas web amplias con medidas de seguridad.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar