Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Imagen generada por IA

Herramientas de IA para cáncer pueden inferir demografía de pacientes, generando preocupaciones por sesgos

Imagen generada por IA
Verificado por hechos

Los sistemas de inteligencia artificial diseñados para diagnosticar cáncer a partir de muestras de tejido están aprendiendo a inferir la demografía de los pacientes, lo que lleva a un rendimiento diagnóstico desigual entre grupos raciales, de género y de edad. Investigadores de la Harvard Medical School y colaboradores identificaron el problema y desarrollaron un método que reduce drásticamente estas disparidades, subrayando la necesidad de revisiones rutinarias de sesgos en la IA médica.

La patología ha dependido durante mucho tiempo del examen de secciones delgadas de tejido bajo microscopios para diagnosticar cáncer, un proceso que típicamente no revela las características demográficas de un paciente a la vista humana. Sin embargo, nueva investigación muestra que los modelos de IA que entran en los laboratorios de patología no comparten esta limitación.

Un estudio dirigido por Kun-Hsing Yu, profesor asociado de informática biomédica en el Blavatnik Institute de la Harvard Medical School y profesor asistente de patología en el Brigham and Women's Hospital, analizó varios sistemas estándar de patología de aprendizaje profundo entrenados en grandes colecciones de diapositivas etiquetadas para el diagnóstico de cáncer.

Según la Harvard Medical School y el estudio publicado en Cell Reports Medicine, el equipo evaluó cuatro modelos de IA para patología comúnmente utilizados en un gran repositorio multiinstitucional de diapositivas de patología que abarca 20 tipos de cáncer.

Los investigadores encontraron que los cuatro modelos mostraban un rendimiento desigual entre grupos demográficos definidos por la raza, género y edad autodeclarados de los pacientes. En un análisis pancáncer, identificaron disparidades significativas de rendimiento en aproximadamente el 29 por ciento de las tareas diagnósticas.

Informes de seguimiento de medios como News-Medical señalan que las disparidades fueron especialmente evidentes en ciertas tareas de subtipos de cáncer de pulmón y mama, con bajo rendimiento para pacientes afroamericanos y algunos hombres en distinciones de cáncer de pulmón, y para pacientes más jóvenes en varias distinciones de subtipos de cáncer de mama.

El equipo de investigación rastreó estas brechas a varios factores. Uno fue la representación desigual de grupos demográficos en los datos de entrenamiento. Otro involucró diferencias en la incidencia y biología de la enfermedad entre poblaciones. El artículo de Cell Reports Medicine informa además que variaciones en la prevalencia de mutaciones somáticas entre poblaciones contribuyeron a las disparidades de rendimiento, sugiriendo que los modelos estaban captando patrones moleculares sutiles vinculados a la demografía así como a la enfermedad.

"Leer la demografía de una diapositiva de patología se considera una 'misión imposible' para un patólogo humano, por lo que el sesgo en la IA de patología fue una sorpresa para nosotros", dijo Yu, según la Harvard Medical School.

Para abordar el problema, los investigadores desarrollaron FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), un marco de mitigación de sesgos que se basa en un concepto existente de aprendizaje automático conocido como aprendizaje contrastivo. El enfoque anima a los modelos a enfatizar las diferencias entre tipos de cáncer mientras minimiza las diferencias ligadas a categorías demográficas.

En el estudio de Cell Reports Medicine, FAIR-Path mitigó el 88,5 por ciento de las disparidades de rendimiento medidas entre grupos demográficos en el análisis pancáncer principal y redujo las brechas de rendimiento en un 91,1 por ciento en la validación externa en 15 cohortes independientes.

Yu y colegas informan que FAIR-Path mejoró la equidad sin requerir conjuntos de datos perfectamente equilibrados y con cambios relativamente modestos en las tuberías de entrenamiento de modelos existentes.

El trabajo, descrito el 16 de diciembre de 2025 en Cell Reports Medicine, destaca la importancia de probar sistemáticamente los sistemas de IA médica en busca de sesgos demográficos antes de que se implementen en la atención clínica.

Según la cobertura de seguimiento de la Harvard Medical School y SciTechDaily, el equipo ahora está explorando cómo extender FAIR-Path a entornos con datos limitados y comprender mejor cómo el sesgo impulsado por IA contribuye a disparidades más amplias en los resultados de salud. Su objetivo a largo plazo es desarrollar herramientas de IA para patología que apoyen a los expertos humanos proporcionando diagnósticos rápidos, precisos y equitativos para pacientes de todos los orígenes.

Qué dice la gente

Las discusiones en X consisten principalmente en compartidos neutrales de la investigación de la Harvard Medical School que revela que las herramientas de diagnóstico de cáncer con IA infieren demografía de pacientes a partir de diapositivas de patología, causando sesgos en el rendimiento entre grupos de raza, género y edad. Los usuarios destacan un nuevo método FAIR-Path que reduce las disparidades hasta en un 88%, enfatizando la importancia de la mitigación de sesgos en la IA médica. Opiniones limitadas, bajo engagement, cobertura multilingüe.

Artículos relacionados

Researchers in a lab using the V2P AI tool to analyze genetic mutations and predict disease categories on a high-tech screen.
Imagen generada por IA

Herramienta de IA vincula mutaciones genéticas a categorías probables de enfermedades

Reportado por IA Imagen generada por IA Verificado por hechos

Investigadores de la Icahn School of Medicine at Mount Sinai han desarrollado un sistema de inteligencia artificial llamado V2P que no solo evalúa si las mutaciones genéticas son probablemente perjudiciales, sino que también predice las amplias categorías de enfermedades que pueden causar. El enfoque, descrito en un artículo en Nature Communications, busca acelerar el diagnóstico genético y respaldar tratamientos más personalizados, especialmente para afecciones raras y complejas.

Una nueva herramienta de IA generativa llamada CytoDiffusion analiza células sanguíneas con mayor precisión que los expertos humanos, lo que podría mejorar los diagnósticos de enfermedades como la leucemia. Desarrollada por investigadores de universidades británicas, el sistema detecta anomalías sutiles y cuantifica su propia incertidumbre. Fue entrenada con más de medio millón de imágenes y destaca en señalar casos raros para revisión.

Reportado por IA

Katie Wells, fundadora de Wellness Mama, comparte perspectivas de su evaluación personalizada de riesgos de salud utilizando herramientas impulsadas por IA, destacando cómo los factores de estilo de vida pueden influir significativamente en los riesgos de enfermedades crónicas. La evaluación, impulsada por datos de más de 10.000 estudios, mostró su riesgo de cáncer por debajo de la media poblacional a pesar de su historial familiar. Subraya un cambio hacia la prevención proactiva en lugar de la medicina reactiva.

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

Reportado por IA

Algunos usuarios de chatbots de IA de Google y OpenAI están generando imágenes deepfake que alteran fotos de mujeres completamente vestidas para mostrarlas en bikinis. Estas modificaciones suelen realizarse sin el consentimiento de las mujeres, e instrucciones para el proceso se comparten entre usuarios. La actividad resalta riesgos en herramientas de IA generativa.

Un estudio reciente de Ascun revela que la inteligencia artificial ya es una realidad en la educación superior colombiana, pero la mayoría de instituciones carecen de políticas y estructuras para su regulación. Mientras el 88,5% de estudiantes la usa en tareas, solo el 55,2% de las IES tiene lineamientos sobre IA. La normativa pública avanza con lentitud, dejando brechas en equidad y calidad educativa.

Reportado por IA

Expertos prevén 2026 como el año clave para los modelos del mundo, sistemas de IA diseñados para comprender el mundo físico más profundamente que los grandes modelos de lenguaje. Estos modelos buscan anclar la IA en la realidad, permitiendo avances en robótica y vehículos autónomos. Líderes de la industria como Yann LeCun y Fei-Fei Li destacan su potencial para revolucionar la inteligencia espacial.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar