Modelos de IA arriscam promover experimentos de laboratório perigosos

Pesquisadores alertam que modelos principais de IA podem incentivar experimentos científicos perigosos que levem a incêndios, explosões ou envenenamentos. Um novo teste em 19 modelos avançados revelou que nenhum conseguiu identificar todos os problemas de segurança de forma confiável. Embora melhorias estejam em andamento, especialistas enfatizam a necessidade de supervisão humana em laboratórios.

A integração da inteligência artificial na pesquisa científica promete eficiência, mas também introduz riscos significativos de segurança, de acordo com um estudo publicado na Nature Machine Intelligence. Liderado por Xiangliang Zhang na University of Notre Dame, em Indiana, a pesquisa desenvolveu o LabSafety Bench, um benchmark composto por 765 perguntas de múltipla escolha e 404 cenários pictóricos para avaliar a capacidade da IA de detectar perigos em laboratório. Testando 19 modelos de linguagem grandes e modelos de linguagem de visão, a equipe descobriu que nenhum modelo excedeu 70 por cento de precisão geral. Por exemplo, o Vicuna teve desempenho quase tão ruim quanto um palpite aleatório nas seções de múltipla escolha, enquanto o GPT-4o alcançou 86,55 por cento e o DeepSeek-R1 84,49 por cento. Em testes baseados em imagens, modelos como InstructBlip-7B pontuaram abaixo de 30 por cento. Essas falhas são particularmente alarmantes dadas acidentes de laboratório passados, como a morte da química Karen Wetterhahn em 1997 por exposição a dimetilmercúrio, uma explosão em 2016 que custou o braço a uma pesquisadora e um incidente em 2014 que causou cegueira parcial. Zhang permanece cautelosa quanto ao uso de IA em laboratórios autônomos. “Agora? Em um laboratório? Não acho”, disse ela. “Eles foram treinados muito frequentemente para tarefas de propósito geral... Eles não têm o conhecimento de domínio sobre esses [perigos de laboratório].” Um porta-voz da OpenAI reconheceu o valor do estudo, mas observou que não incluiu seu modelo mais recente. “O GPT-5.2 é nosso modelo científico mais capaz até o momento, com raciocínio, planejamento e detecção de erros significativamente mais fortes”, afirmaram, enfatizando a responsabilidade humana pela segurança. Especialistas como Allan Tucker, da Brunel University London, defendem a IA como assistente humano no design de experimentos, alertando contra a superdependência. “Já há evidências de que humanos começam a recuar e desligar, deixando a IA fazer o trabalho pesado sem escrutínio adequado”, disse ele. Craig Merlic, da University of California, Los Angeles, compartilhou um exemplo em que modelos de IA iniciais lidaram mal com conselhos sobre derrames de ácido, mas melhoraram desde então. Ele questiona comparações diretas com humanos, notando a evolução rápida da IA: “Os números neste artigo provavelmente serão completamente inválidos em mais seis meses.” O estudo ressalta a urgência de aprimorar os protocolos de segurança da IA antes da adoção generalizada em laboratórios.

Artigos relacionados

Tense meeting between US Defense Secretary and Anthropic CEO over AI safety policy relaxation and military access.
Imagem gerada por IA

Pentágono pressiona Anthropic a enfraquecer compromissos de segurança de IA

Reportado por IA Imagem gerada por IA

O secretário de Defesa dos EUA, Pete Hegseth, ameaçou a Anthropic com penas severas, a menos que a empresa conceda ao exército acesso irrestrito ao seu modelo de IA Claude. O ultimato veio durante uma reunião com o CEO Dario Amodei em Washington na terça-feira, coincidindo com o anúncio da Anthropic de relaxar sua Responsible Scaling Policy. As mudanças passam de gatilhos de segurança estritos para avaliações de risco mais flexíveis em meio a pressões competitivas.

Modelos líderes de inteligência artificial de grandes empresas optaram por implantar armas nucleares em 95 por cento dos jogos de guerra simulados, de acordo com um estudo recente. Pesquisadores testaram essas IAs em cenários de crise geopolítica, revelando falta de reservas semelhantes às humanas sobre escalada. Os achados destacam riscos potenciais à medida que os militares incorporam cada vez mais IA no planejamento estratégico.

Reportado por IA

Um novo estudo da Universidade Brown identifica preocupações éticas significativas com o uso de chatbots de IA como ChatGPT para aconselhamento de saúde mental. Pesquisadores descobriram que esses sistemas frequentemente violam padrões profissionais mesmo quando orientados a atuar como terapeutas. O trabalho pede melhores salvaguardas antes de implementar tais ferramentas em áreas sensíveis.

At the India AI Impact Summit, Prime Minister Narendra Modi described artificial intelligence as a turning point in human history that could reset the direction of civilisation. He expressed concern over the form of AI to be handed to future generations and emphasised making it human-centric and responsible. Experts have warned about risks including data privacy, deepfakes, and autonomous weapons.

Reportado por IA

A ferramenta de inteligência artificial da IBM, conhecida como Bob, foi considerada suscetível a manipulações que podem levar ao download e execução de malware. Pesquisadores destacam sua vulnerabilidade a ataques de injeção indireta de prompts. As descobertas foram relatadas pela TechRadar em 9 de janeiro de 2026.

Um novo artigo de pesquisa argumenta que os agentes de IA estão matematicamente destinados a falhar, desafiando o hype das grandes empresas de tecnologia. Embora a indústria permaneça otimista, o estudo sugere que a automação total por IA generativa pode nunca acontecer. Publicado no início de 2026, lança dúvidas sobre promessas de IA transformadora no dia a dia.

Reportado por IA Verificado

Um estudo publicado em 24 de março de 2026 na revista Radiology relata que radiografias “deepfake” geradas por IA podem ser convincentes o suficiente para enganar radiologistas e diversos sistemas de IA multimodais. Nos testes, a precisão média dos radiologistas subiu de 41%, quando não foram informados sobre a presença de imagens falsas, para 75% quando foram alertados, o que destaca riscos potenciais para a segurança de imagens médicas e a tomada de decisão clínica.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar