Modelos de IA arriscam promover experimentos de laboratório perigosos

Pesquisadores alertam que modelos principais de IA podem incentivar experimentos científicos perigosos que levem a incêndios, explosões ou envenenamentos. Um novo teste em 19 modelos avançados revelou que nenhum conseguiu identificar todos os problemas de segurança de forma confiável. Embora melhorias estejam em andamento, especialistas enfatizam a necessidade de supervisão humana em laboratórios.

A integração da inteligência artificial na pesquisa científica promete eficiência, mas também introduz riscos significativos de segurança, de acordo com um estudo publicado na Nature Machine Intelligence. Liderado por Xiangliang Zhang na University of Notre Dame, em Indiana, a pesquisa desenvolveu o LabSafety Bench, um benchmark composto por 765 perguntas de múltipla escolha e 404 cenários pictóricos para avaliar a capacidade da IA de detectar perigos em laboratório. Testando 19 modelos de linguagem grandes e modelos de linguagem de visão, a equipe descobriu que nenhum modelo excedeu 70 por cento de precisão geral. Por exemplo, o Vicuna teve desempenho quase tão ruim quanto um palpite aleatório nas seções de múltipla escolha, enquanto o GPT-4o alcançou 86,55 por cento e o DeepSeek-R1 84,49 por cento. Em testes baseados em imagens, modelos como InstructBlip-7B pontuaram abaixo de 30 por cento. Essas falhas são particularmente alarmantes dadas acidentes de laboratório passados, como a morte da química Karen Wetterhahn em 1997 por exposição a dimetilmercúrio, uma explosão em 2016 que custou o braço a uma pesquisadora e um incidente em 2014 que causou cegueira parcial. Zhang permanece cautelosa quanto ao uso de IA em laboratórios autônomos. “Agora? Em um laboratório? Não acho”, disse ela. “Eles foram treinados muito frequentemente para tarefas de propósito geral... Eles não têm o conhecimento de domínio sobre esses [perigos de laboratório].” Um porta-voz da OpenAI reconheceu o valor do estudo, mas observou que não incluiu seu modelo mais recente. “O GPT-5.2 é nosso modelo científico mais capaz até o momento, com raciocínio, planejamento e detecção de erros significativamente mais fortes”, afirmaram, enfatizando a responsabilidade humana pela segurança. Especialistas como Allan Tucker, da Brunel University London, defendem a IA como assistente humano no design de experimentos, alertando contra a superdependência. “Já há evidências de que humanos começam a recuar e desligar, deixando a IA fazer o trabalho pesado sem escrutínio adequado”, disse ele. Craig Merlic, da University of California, Los Angeles, compartilhou um exemplo em que modelos de IA iniciais lidaram mal com conselhos sobre derrames de ácido, mas melhoraram desde então. Ele questiona comparações diretas com humanos, notando a evolução rápida da IA: “Os números neste artigo provavelmente serão completamente inválidos em mais seis meses.” O estudo ressalta a urgência de aprimorar os protocolos de segurança da IA antes da adoção generalizada em laboratórios.

Artigos relacionados

Modelos de IA comumente usados, incluindo ChatGPT e Gemini, frequentemente falham em fornecer conselhos adequados para questões urgentes de saúde feminina, de acordo com um novo teste de referência. Pesquisadores descobriram que 60 por cento das respostas a consultas especializadas foram insuficientes, destacando vieses nos dados de treinamento da IA. O estudo pede conteúdo médico aprimorado para abordar essas lacunas.

Reportado por IA

Um estudo da Universidade de Cornell revela que ferramentas de IA como ChatGPT aumentaram a produção de artigos dos pesquisadores em até 50%, beneficiando especialmente falantes não nativos de inglês. No entanto, esse aumento em manuscritos polidos está complicando revisões por pares e decisões de financiamento, pois muitos carecem de valor científico substancial. As descobertas destacam uma mudança na dinâmica da pesquisa global e pedem políticas atualizadas sobre o uso de IA na academia.

Especialistas em cibersegurança estão cada vez mais alarmados com a forma como a inteligência artificial está remodelando o cibercrime, com ferramentas como deepfakes, phishing com IA e modelos de linguagem grandes sombrios permitindo que até novatos executem fraudes avançadas. Esses desenvolvimentos representam riscos significativos para as empresas no próximo ano. Insights publicados pela TechRadar destacam a escala e sofisticação dessas ameaças emergentes.

Reportado por IA

Um relatório do Guardian revelou que o mais recente modelo de IA da OpenAI, GPT-5.2, recorre à Grokipedia, uma enciclopédia online alimentada pela xAI, ao abordar questões sensíveis como o Holocausto e a política iraniana. Embora promovido para tarefas profissionais, testes questionam a fiabilidade das suas fontes. A OpenAI defende a sua abordagem enfatizando pesquisas amplas na web com medidas de segurança.

domingo, 18 de janeiro de 2026, 01:24h

AI companies gear up for ads as manipulation threats emerge

terça-feira, 13 de janeiro de 2026, 06:11h

Empresas intensificam avaliações de riscos de segurança da IA

sexta-feira, 09 de janeiro de 2026, 07:35h

IA Bob da IBM vulnerável a manipulação de malware

segunda-feira, 29 de dezembro de 2025, 20:12h

AI agents arrived in 2025

sábado, 27 de dezembro de 2025, 17:44h

OpenAI contrata novo chefe de preparação para danos da IA

sexta-feira, 26 de dezembro de 2025, 01:16h

Comentário pede fim à antropomorfização da IA

quarta-feira, 24 de dezembro de 2025, 04:08h

Como funcionam os agentes de codificação com IA e suas limitações

quarta-feira, 24 de dezembro de 2025, 01:04h

US and China must get serious about AI risk

domingo, 21 de dezembro de 2025, 19:16h

Processo questiona força do robô humanoide da Figure AI

terça-feira, 16 de dezembro de 2025, 05:52h

Estudo sugere algoritmos inspirados no cérebro para reduzir uso de energia da IA

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar