Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Imagem gerada por IA

Estudo revela que radiologistas e modelos de IA têm dificuldade em identificar radiografias “deepfake” criadas por inteligência artificial

Imagem gerada por IA
Verificado

Um estudo publicado em 24 de março de 2026 na revista Radiology relata que radiografias “deepfake” geradas por IA podem ser convincentes o suficiente para enganar radiologistas e diversos sistemas de IA multimodais. Nos testes, a precisão média dos radiologistas subiu de 41%, quando não foram informados sobre a presença de imagens falsas, para 75% quando foram alertados, o que destaca riscos potenciais para a segurança de imagens médicas e a tomada de decisão clínica.

Radiologistas de 12 instituições em seis países — Estados Unidos, França, Alemanha, Turquia, Reino Unido e Emirados Árabes Unidos — participaram de testes de revisão de imagens descritos em um estudo publicado em 24 de março de 2026 na Radiology, a revista da Radiological Society of North America.

O estudo incluiu 17 radiologistas com experiência variando de iniciantes a médicos com até 40 anos de prática. Eles avaliaram 264 radiografias divididas igualmente entre exames reais e imagens geradas por IA.

Os participantes revisaram dois conjuntos de imagens sem sobreposição. Um conjunto misturou imagens reais com radiografias geradas por IA usando o ChatGPT e incluiu raios-X de diferentes partes do corpo. O segundo conjunto focou em radiografias de tórax, com metade real e metade gerada usando o RoentGen, um modelo de difusão de código aberto desenvolvido por pesquisadores da Stanford Medicine.

Quando os radiologistas não foram avisados de que imagens falsas estavam incluídas, eles reconheceram as radiografias geradas por IA em 41% das vezes. Após serem informados de que havia imagens sintéticas presentes, a precisão média deles em distinguir o real do falso subiu para 75%.

O desempenho variou bastante entre os indivíduos. Os radiologistas identificaram corretamente entre 58% e 92% das imagens geradas pelo ChatGPT. Para as radiografias de tórax geradas pelo RoentGen, a precisão dos radiologistas variou de 62% a 78%.

Os pesquisadores também testaram vários modelos de linguagem grandes multimodais na mesma tarefa. Quatro sistemas — GPT-4o e GPT-5 da OpenAI, Gemini 2.5 Pro do Google e Llama 4 Maverick da Meta — alcançaram taxas de precisão variando de 57% a 85%. Mesmo o ChatGPT-4o, que foi usado para gerar algumas das imagens deepfake, não detectou todas elas, embora tenha tido um desempenho melhor que os outros modelos.

O estudo não encontrou ligação entre os anos de experiência em radiologia e a capacidade de identificar radiografias falsas, mas relatou que radiologistas musculoesqueléticos tiveram um desempenho significativamente melhor do que outros subespecialistas.

O autor principal, Mickael Tordjman, M.D., pós-doutorando na Icahn School of Medicine at Mount Sinai em Nova York, disse que os resultados apontam para vulnerabilidades tanto jurídicas quanto de cibersegurança. “Isso cria uma vulnerabilidade de alto risco para litígios fraudulentos se, por exemplo, uma fratura fabricada for indistinguível de uma real”, disse ele, acrescentando que há “um risco significativo de cibersegurança caso hackers obtenham acesso à rede de um hospital e injetem imagens sintéticas para manipular diagnósticos de pacientes ou causar caos clínico generalizado ao minar a confiabilidade fundamental do prontuário médico digital”.

Tordjman também descreveu padrões visuais que podem aparecer em imagens sintéticas, dizendo que imagens médicas deepfake podem parecer “perfeitas demais”, com ossos excessivamente lisos, colunas vertebralmente retas demais, pulmões excessivamente simétricos, padrões de vasos sanguíneos excessivamente uniformes e fraturas com aparência estranhamente limpa.

Para reduzir o risco de adulteração e atribuição incorreta, os pesquisadores recomendaram salvaguardas, incluindo marcas d'água invisíveis incorporadas diretamente nas imagens e assinaturas criptográficas vinculadas ao tecnólogo de radiologia no momento da captura da imagem. Eles também disseram que lançaram um conjunto de dados deepfake curado com testes interativos destinados ao treinamento e conscientização.

“Estamos vendo potencialmente apenas a ponta do iceberg”, disse Tordjman, argumentando que imagens 3D geradas por IA, como tomografias computadorizadas e ressonâncias magnéticas, podem ser o próximo passo e que ferramentas de detecção e recursos educacionais devem ser desenvolvidos precocemente.

O que as pessoas estão dizendo

Discussões na plataforma X expressam alarme sobre um estudo que mostra que radiologistas detectam radiografias deepfake geradas por IA com apenas 41% de precisão quando não avisados, índice que melhora para 75% quando alertados, enquanto os modelos de IA também falham. As reações destacam riscos para decisões clínicas, integridade de pesquisa, seguros e cibersegurança. Especialistas e veículos pedem treinamento em detecção e conjuntos de dados. Os sentimentos incluem perturbação, preocupação com a erosão da confiança e pedidos por salvaguardas.

Artigos relacionados

Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Imagem gerada por IA

Ferramentas de IA para câncer podem inferir demografia de pacientes, levantando preocupações com viés

Reportado por IA Imagem gerada por IA Verificado

Sistemas de inteligência artificial projetados para diagnosticar câncer a partir de lâminas de tecido estão aprendendo a inferir a demografia dos pacientes, levando a um desempenho diagnóstico desigual entre grupos raciais, de gênero e etários. Pesquisadores da Harvard Medical School e colaboradores identificaram o problema e desenvolveram um método que reduz drasticamente essas disparidades, sublinhando a necessidade de verificações rotineiras de viés em IA médica.

Alguns usuários de chatbots de IA do Google e OpenAI estão gerando imagens deepfake que alteram fotos de mulheres totalmente vestidas para mostrá-las de biquíni. Essas modificações ocorrem frequentemente sem o consentimento das mulheres, e instruções para o processo são compartilhadas entre usuários. A atividade destaca riscos em ferramentas de IA generativa.

Reportado por IA

Investigadores da UC San Francisco e da Wayne State University descobriram que a IA generativa pode processar conjuntos de dados médicos complexos mais rapidamente do que equipas humanas tradicionais, por vezes com resultados mais fortes. O estudo focou-se na previsão de nascimento prematuro usando dados de mais de 1.000 mulheres grávidas. Esta abordagem reduziu o tempo de análise de meses para minutos em alguns casos.

Um estudo da Universidade de Cornell revela que ferramentas de IA como ChatGPT aumentaram a produção de artigos dos pesquisadores em até 50%, beneficiando especialmente falantes não nativos de inglês. No entanto, esse aumento em manuscritos polidos está complicando revisões por pares e decisões de financiamento, pois muitos carecem de valor científico substancial. As descobertas destacam uma mudança na dinâmica da pesquisa global e pedem políticas atualizadas sobre o uso de IA na academia.

Reportado por IA

Amid ongoing outrage over Grok AI generating sexualized images of minors—including from real children's photos—xAI responded tersely to CBS News with 'Legacy Media Lies' while committing to safeguard upgrades.

A União Europeia lançou uma investigação formal à xAI de Elon Musk após preocupações de que o seu chatbot Grok gerou imagens sexualizadas sem consentimento, incluindo material potencial de abuso sexual infantil. Os reguladores estão a examinar se a empresa cumpriu a Lei dos Serviços Digitais na mitigação de riscos na plataforma X. As multas podem atingir 6 por cento do volume de negócios anual global da xAI se forem encontradas violações.

Reportado por IA

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar