Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Imagem gerada por IA

Ferramentas de IA para câncer podem inferir demografia de pacientes, levantando preocupações com viés

Imagem gerada por IA
Verificado

Sistemas de inteligência artificial projetados para diagnosticar câncer a partir de lâminas de tecido estão aprendendo a inferir a demografia dos pacientes, levando a um desempenho diagnóstico desigual entre grupos raciais, de gênero e etários. Pesquisadores da Harvard Medical School e colaboradores identificaram o problema e desenvolveram um método que reduz drasticamente essas disparidades, sublinhando a necessidade de verificações rotineiras de viés em IA médica.

A patologia tem dependido há muito tempo da exame de fatias finas de tecido sob microscópios para diagnosticar câncer, um processo que tipicamente não revela as características demográficas de um paciente aos olhos humanos. No entanto, nova pesquisa mostra que modelos de IA que entram em laboratórios de patologia não compartilham essa limitação.

Um estudo liderado por Kun-Hsing Yu, professor associado de informática biomédica no Blavatnik Institute da Harvard Medical School e professor assistente de patologia no Brigham and Women's Hospital, analisou vários sistemas padrão de patologia de deep learning treinados em grandes coleções de lâminas rotuladas para diagnóstico de câncer.

De acordo com a Harvard Medical School e o estudo publicado em Cell Reports Medicine, a equipe avaliou quatro modelos de IA para patologia comumente usados em um grande repositório multi-institucional de lâminas de patologia abrangendo 20 tipos de câncer.

Os pesquisadores descobriram que todos os quatro modelos apresentaram desempenho desigual entre grupos demográficos definidos pela raça, gênero e idade auto-relatados pelos pacientes. Em uma análise pan-câncer, identificaram disparidades significativas de desempenho em cerca de 29 por cento das tarefas diagnósticas.

Reportagens de acompanhamento por veículos como News-Medical observam que as disparidades foram especialmente evidentes em certas tarefas de subtipos de câncer de pulmão e mama, com subdesempenho para pacientes afro-americanos e alguns pacientes do sexo masculino em distinções de câncer de pulmão, e para pacientes mais jovens em várias distinções de subtipos de câncer de mama.

A equipe de pesquisa rastreou essas lacunas a vários fatores. Um foi a representação desigual de grupos demográficos nos dados de treinamento. Outro envolveu diferenças na incidência e biologia da doença entre populações. O artigo da Cell Reports Medicine relata ainda que variações na prevalência de mutações somáticas entre populações contribuíram para disparidades de desempenho, sugerindo que os modelos estavam captando padrões moleculares sutis ligados à demografia, bem como à doença.

"Ler a demografia de uma lâmina de patologia é considerado uma 'missão impossível' para um patologista humano, então o viés na IA de patologia foi uma surpresa para nós", disse Yu, de acordo com a Harvard Medical School.

Para abordar o problema, os pesquisadores desenvolveram FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), um framework de mitigação de viés que se baseia em um conceito existente de machine learning conhecido como aprendizado contrastivo. A abordagem incentiva os modelos a enfatizar diferenças entre tipos de câncer enquanto minimiza diferenças ligadas a categorias demográficas.

No estudo da Cell Reports Medicine, o FAIR-Path mitigou 88,5 por cento das disparidades de desempenho medidas entre grupos demográficos na análise pan-câncer principal e reduziu as lacunas de desempenho em 91,1 por cento na validação externa em 15 coortes independentes.

Yu e colegas relatam que o FAIR-Path melhorou a equidade sem exigir conjuntos de dados perfeitamente equilibrados e com mudanças relativamente modestas nas pipelines de treinamento de modelos existentes.

O trabalho, descrito em 16 de dezembro de 2025 na Cell Reports Medicine, destaca a importância de testar sistematicamente sistemas de IA médica para viés demográfico antes de serem implantados no atendimento clínico.

De acordo com a cobertura de acompanhamento da Harvard Medical School e SciTechDaily, a equipe agora está explorando como estender o FAIR-Path para cenários com dados limitados e entender melhor como o viés impulsionado por IA contribui para disparidades mais amplas nos resultados de saúde. Seu objetivo de longo prazo é desenvolver ferramentas de IA para patologia que apoiem especialistas humanos fornecendo diagnósticos rápidos, precisos e justos para pacientes de todos os backgrounds.

O que as pessoas estão dizendo

Discussões no X consistem principalmente em compartilhamentos neutros da pesquisa da Harvard Medical School revelando que ferramentas de diagnóstico de câncer por IA inferem demografia de pacientes a partir de lâminas de patologia, causando vieses no desempenho entre grupos raciais, de gênero e etários. Postadores destacam novo método FAIR-Path reduzindo disparidades em até 88%, enfatizando a importância da mitigação de viés em IA médica. Opiniões limitadas, engajamento baixo, cobertura multilíngue.

Artigos relacionados

Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Imagem gerada por IA

Estudo revela que radiologistas e modelos de IA têm dificuldade em identificar radiografias “deepfake” criadas por inteligência artificial

Reportado por IA Imagem gerada por IA Verificado

Um estudo publicado em 24 de março de 2026 na revista Radiology relata que radiografias “deepfake” geradas por IA podem ser convincentes o suficiente para enganar radiologistas e diversos sistemas de IA multimodais. Nos testes, a precisão média dos radiologistas subiu de 41%, quando não foram informados sobre a presença de imagens falsas, para 75% quando foram alertados, o que destaca riscos potenciais para a segurança de imagens médicas e a tomada de decisão clínica.

Uma nova ferramenta de IA generativa chamada CytoDiffusion analisa células sanguíneas com maior precisão do que especialistas humanos, podendo melhorar diagnósticos de doenças como leucemia. Desenvolvida por investigadores de universidades britânicas, o sistema deteta anomalias subtis e quantifica a sua própria incerteza. Foi treinada com mais de meio milhão de imagens e destaca-se em sinalizar casos raros para revisão.

Reportado por IA

Investigadores da UC San Francisco e da Wayne State University descobriram que a IA generativa pode processar conjuntos de dados médicos complexos mais rapidamente do que equipas humanas tradicionais, por vezes com resultados mais fortes. O estudo focou-se na previsão de nascimento prematuro usando dados de mais de 1.000 mulheres grávidas. Esta abordagem reduziu o tempo de análise de meses para minutos em alguns casos.

India has released a national strategy for advanced computational systems in healthcare, focusing on integration into the health system architecture rather than mere add-ons. The approach prioritizes infrastructure like interoperable records and ongoing oversight to ensure equity. This contrasts with global trends where regulation often lags behind innovation.

Reportado por IA

Um estudo da Universidade de Cornell revela que ferramentas de IA como ChatGPT aumentaram a produção de artigos dos pesquisadores em até 50%, beneficiando especialmente falantes não nativos de inglês. No entanto, esse aumento em manuscritos polidos está complicando revisões por pares e decisões de financiamento, pois muitos carecem de valor científico substancial. As descobertas destacam uma mudança na dinâmica da pesquisa global e pedem políticas atualizadas sobre o uso de IA na academia.

Pesquisadores da Universidade Duke desenvolveram uma estrutura de inteligência artificial que revela regras diretas subjacentes a sistemas altamente complexos na natureza e na tecnologia. Publicado em 17 de dezembro na npj Complexity, a ferramenta analisa dados de séries temporais para produzir equações compactas que capturam comportamentos essenciais. Essa abordagem pode preencher lacunas no entendimento científico onde métodos tradicionais falham.

Reportado por IA

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar