Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Imagem gerada por IA

Ferramentas de IA para câncer podem inferir demografia de pacientes, levantando preocupações com viés

Imagem gerada por IA
Verificado

Sistemas de inteligência artificial projetados para diagnosticar câncer a partir de lâminas de tecido estão aprendendo a inferir a demografia dos pacientes, levando a um desempenho diagnóstico desigual entre grupos raciais, de gênero e etários. Pesquisadores da Harvard Medical School e colaboradores identificaram o problema e desenvolveram um método que reduz drasticamente essas disparidades, sublinhando a necessidade de verificações rotineiras de viés em IA médica.

A patologia tem dependido há muito tempo da exame de fatias finas de tecido sob microscópios para diagnosticar câncer, um processo que tipicamente não revela as características demográficas de um paciente aos olhos humanos. No entanto, nova pesquisa mostra que modelos de IA que entram em laboratórios de patologia não compartilham essa limitação.

Um estudo liderado por Kun-Hsing Yu, professor associado de informática biomédica no Blavatnik Institute da Harvard Medical School e professor assistente de patologia no Brigham and Women's Hospital, analisou vários sistemas padrão de patologia de deep learning treinados em grandes coleções de lâminas rotuladas para diagnóstico de câncer.

De acordo com a Harvard Medical School e o estudo publicado em Cell Reports Medicine, a equipe avaliou quatro modelos de IA para patologia comumente usados em um grande repositório multi-institucional de lâminas de patologia abrangendo 20 tipos de câncer.

Os pesquisadores descobriram que todos os quatro modelos apresentaram desempenho desigual entre grupos demográficos definidos pela raça, gênero e idade auto-relatados pelos pacientes. Em uma análise pan-câncer, identificaram disparidades significativas de desempenho em cerca de 29 por cento das tarefas diagnósticas.

Reportagens de acompanhamento por veículos como News-Medical observam que as disparidades foram especialmente evidentes em certas tarefas de subtipos de câncer de pulmão e mama, com subdesempenho para pacientes afro-americanos e alguns pacientes do sexo masculino em distinções de câncer de pulmão, e para pacientes mais jovens em várias distinções de subtipos de câncer de mama.

A equipe de pesquisa rastreou essas lacunas a vários fatores. Um foi a representação desigual de grupos demográficos nos dados de treinamento. Outro envolveu diferenças na incidência e biologia da doença entre populações. O artigo da Cell Reports Medicine relata ainda que variações na prevalência de mutações somáticas entre populações contribuíram para disparidades de desempenho, sugerindo que os modelos estavam captando padrões moleculares sutis ligados à demografia, bem como à doença.

"Ler a demografia de uma lâmina de patologia é considerado uma 'missão impossível' para um patologista humano, então o viés na IA de patologia foi uma surpresa para nós", disse Yu, de acordo com a Harvard Medical School.

Para abordar o problema, os pesquisadores desenvolveram FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), um framework de mitigação de viés que se baseia em um conceito existente de machine learning conhecido como aprendizado contrastivo. A abordagem incentiva os modelos a enfatizar diferenças entre tipos de câncer enquanto minimiza diferenças ligadas a categorias demográficas.

No estudo da Cell Reports Medicine, o FAIR-Path mitigou 88,5 por cento das disparidades de desempenho medidas entre grupos demográficos na análise pan-câncer principal e reduziu as lacunas de desempenho em 91,1 por cento na validação externa em 15 coortes independentes.

Yu e colegas relatam que o FAIR-Path melhorou a equidade sem exigir conjuntos de dados perfeitamente equilibrados e com mudanças relativamente modestas nas pipelines de treinamento de modelos existentes.

O trabalho, descrito em 16 de dezembro de 2025 na Cell Reports Medicine, destaca a importância de testar sistematicamente sistemas de IA médica para viés demográfico antes de serem implantados no atendimento clínico.

De acordo com a cobertura de acompanhamento da Harvard Medical School e SciTechDaily, a equipe agora está explorando como estender o FAIR-Path para cenários com dados limitados e entender melhor como o viés impulsionado por IA contribui para disparidades mais amplas nos resultados de saúde. Seu objetivo de longo prazo é desenvolver ferramentas de IA para patologia que apoiem especialistas humanos fornecendo diagnósticos rápidos, precisos e justos para pacientes de todos os backgrounds.

O que as pessoas estão dizendo

Discussões no X consistem principalmente em compartilhamentos neutros da pesquisa da Harvard Medical School revelando que ferramentas de diagnóstico de câncer por IA inferem demografia de pacientes a partir de lâminas de patologia, causando vieses no desempenho entre grupos raciais, de gênero e etários. Postadores destacam novo método FAIR-Path reduzindo disparidades em até 88%, enfatizando a importância da mitigação de viés em IA médica. Opiniões limitadas, engajamento baixo, cobertura multilíngue.

Artigos relacionados

Researchers in a lab using the V2P AI tool to analyze genetic mutations and predict disease categories on a high-tech screen.
Imagem gerada por IA

Ferramenta de IA liga mutações genéticas a categorias prováveis de doenças

Reportado por IA Imagem gerada por IA Verificado

Pesquisadores da Icahn School of Medicine at Mount Sinai desenvolveram um sistema de inteligência artificial chamado V2P que não só avalia se mutações genéticas são provavelmente prejudiciais, mas também prevê as amplas categorias de doenças que podem causar. A abordagem, descrita em um artigo na Nature Communications, visa acelerar o diagnóstico genético e apoiar tratamentos mais personalizados, especialmente para condições raras e complexas.

Uma nova ferramenta de IA generativa chamada CytoDiffusion analisa células sanguíneas com maior precisão do que especialistas humanos, podendo melhorar diagnósticos de doenças como leucemia. Desenvolvida por investigadores de universidades britânicas, o sistema deteta anomalias subtis e quantifica a sua própria incerteza. Foi treinada com mais de meio milhão de imagens e destaca-se em sinalizar casos raros para revisão.

Reportado por IA

Katie Wells, fundadora da Wellness Mama, partilha insights da sua avaliação personalizada de riscos à saúde usando ferramentas baseadas em IA, destacando como os fatores de estilo de vida podem influenciar significativamente os riscos de doenças crónicas. A avaliação, alimentada por dados de mais de 10.000 estudos, mostrou o seu risco de cancro abaixo da média populacional apesar do historial familiar. Realça uma mudança para a prevenção proativa em vez da medicina reactiva.

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

Reportado por IA

Alguns usuários de chatbots de IA do Google e OpenAI estão gerando imagens deepfake que alteram fotos de mulheres totalmente vestidas para mostrá-las de biquíni. Essas modificações ocorrem frequentemente sem o consentimento das mulheres, e instruções para o processo são compartilhadas entre usuários. A atividade destaca riscos em ferramentas de IA generativa.

A recent Ascun study shows artificial intelligence is now a reality in Colombian higher education, but most institutions lack policies and structures for its regulation. While 88.5% of students use it for assignments, only 55.2% of higher education institutions have AI guidelines. Public policy lags behind, creating gaps in equity and educational quality.

Reportado por IA

Especialistas preveem 2026 como o ano decisivo para modelos do mundo, sistemas de IA projetados para compreender o mundo físico mais profundamente do que grandes modelos de linguagem. Esses modelos visam ancorar a IA na realidade, possibilitando avanços em robótica e veículos autônomos. Líderes da indústria como Yann LeCun e Fei-Fei Li destacam seu potencial para revolucionar a inteligência espacial.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar