Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Imagen generada por IA

Herramientas de IA para cáncer pueden inferir demografía de pacientes, generando preocupaciones por sesgos

Imagen generada por IA
Verificado por hechos

Los sistemas de inteligencia artificial diseñados para diagnosticar cáncer a partir de muestras de tejido están aprendiendo a inferir la demografía de los pacientes, lo que lleva a un rendimiento diagnóstico desigual entre grupos raciales, de género y de edad. Investigadores de la Harvard Medical School y colaboradores identificaron el problema y desarrollaron un método que reduce drásticamente estas disparidades, subrayando la necesidad de revisiones rutinarias de sesgos en la IA médica.

La patología ha dependido durante mucho tiempo del examen de secciones delgadas de tejido bajo microscopios para diagnosticar cáncer, un proceso que típicamente no revela las características demográficas de un paciente a la vista humana. Sin embargo, nueva investigación muestra que los modelos de IA que entran en los laboratorios de patología no comparten esta limitación.

Un estudio dirigido por Kun-Hsing Yu, profesor asociado de informática biomédica en el Blavatnik Institute de la Harvard Medical School y profesor asistente de patología en el Brigham and Women's Hospital, analizó varios sistemas estándar de patología de aprendizaje profundo entrenados en grandes colecciones de diapositivas etiquetadas para el diagnóstico de cáncer.

Según la Harvard Medical School y el estudio publicado en Cell Reports Medicine, el equipo evaluó cuatro modelos de IA para patología comúnmente utilizados en un gran repositorio multiinstitucional de diapositivas de patología que abarca 20 tipos de cáncer.

Los investigadores encontraron que los cuatro modelos mostraban un rendimiento desigual entre grupos demográficos definidos por la raza, género y edad autodeclarados de los pacientes. En un análisis pancáncer, identificaron disparidades significativas de rendimiento en aproximadamente el 29 por ciento de las tareas diagnósticas.

Informes de seguimiento de medios como News-Medical señalan que las disparidades fueron especialmente evidentes en ciertas tareas de subtipos de cáncer de pulmón y mama, con bajo rendimiento para pacientes afroamericanos y algunos hombres en distinciones de cáncer de pulmón, y para pacientes más jóvenes en varias distinciones de subtipos de cáncer de mama.

El equipo de investigación rastreó estas brechas a varios factores. Uno fue la representación desigual de grupos demográficos en los datos de entrenamiento. Otro involucró diferencias en la incidencia y biología de la enfermedad entre poblaciones. El artículo de Cell Reports Medicine informa además que variaciones en la prevalencia de mutaciones somáticas entre poblaciones contribuyeron a las disparidades de rendimiento, sugiriendo que los modelos estaban captando patrones moleculares sutiles vinculados a la demografía así como a la enfermedad.

"Leer la demografía de una diapositiva de patología se considera una 'misión imposible' para un patólogo humano, por lo que el sesgo en la IA de patología fue una sorpresa para nosotros", dijo Yu, según la Harvard Medical School.

Para abordar el problema, los investigadores desarrollaron FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), un marco de mitigación de sesgos que se basa en un concepto existente de aprendizaje automático conocido como aprendizaje contrastivo. El enfoque anima a los modelos a enfatizar las diferencias entre tipos de cáncer mientras minimiza las diferencias ligadas a categorías demográficas.

En el estudio de Cell Reports Medicine, FAIR-Path mitigó el 88,5 por ciento de las disparidades de rendimiento medidas entre grupos demográficos en el análisis pancáncer principal y redujo las brechas de rendimiento en un 91,1 por ciento en la validación externa en 15 cohortes independientes.

Yu y colegas informan que FAIR-Path mejoró la equidad sin requerir conjuntos de datos perfectamente equilibrados y con cambios relativamente modestos en las tuberías de entrenamiento de modelos existentes.

El trabajo, descrito el 16 de diciembre de 2025 en Cell Reports Medicine, destaca la importancia de probar sistemáticamente los sistemas de IA médica en busca de sesgos demográficos antes de que se implementen en la atención clínica.

Según la cobertura de seguimiento de la Harvard Medical School y SciTechDaily, el equipo ahora está explorando cómo extender FAIR-Path a entornos con datos limitados y comprender mejor cómo el sesgo impulsado por IA contribuye a disparidades más amplias en los resultados de salud. Su objetivo a largo plazo es desarrollar herramientas de IA para patología que apoyen a los expertos humanos proporcionando diagnósticos rápidos, precisos y equitativos para pacientes de todos los orígenes.

Qué dice la gente

Las discusiones en X consisten principalmente en compartidos neutrales de la investigación de la Harvard Medical School que revela que las herramientas de diagnóstico de cáncer con IA infieren demografía de pacientes a partir de diapositivas de patología, causando sesgos en el rendimiento entre grupos de raza, género y edad. Los usuarios destacan un nuevo método FAIR-Path que reduce las disparidades hasta en un 88%, enfatizando la importancia de la mitigación de sesgos en la IA médica. Opiniones limitadas, bajo engagement, cobertura multilingüe.

Artículos relacionados

Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Imagen generada por IA

Un estudio revela que a los radiólogos y a los modelos de IA les cuesta identificar radiografías “deepfake” generadas por IA

Reportado por IA Imagen generada por IA Verificado por hechos

Un estudio publicado el 24 de marzo de 2026 en *Radiology* informa que las radiografías “deepfake” generadas por IA pueden ser lo suficientemente convincentes como para engañar a radiólogos y a varios sistemas de IA multimodal. En las pruebas, la precisión media de los radiólogos aumentó del 41 %, cuando no se les advirtió de la presencia de imágenes falsas, al 75 % cuando se les informó, lo que pone de relieve los riesgos potenciales para la seguridad de las imágenes médicas y la toma de decisiones clínicas.

Una nueva herramienta de IA generativa llamada CytoDiffusion analiza células sanguíneas con mayor precisión que los expertos humanos, lo que podría mejorar los diagnósticos de enfermedades como la leucemia. Desarrollada por investigadores de universidades británicas, el sistema detecta anomalías sutiles y cuantifica su propia incertidumbre. Fue entrenada con más de medio millón de imágenes y destaca en señalar casos raros para revisión.

Reportado por IA

Investigadores de la UC San Francisco y la Wayne State University descubrieron que la IA generativa puede procesar conjuntos de datos médicos complejos más rápido que los equipos humanos tradicionales, a veces con resultados más sólidos. El estudio se centró en predecir el parto prematuro utilizando datos de más de 1.000 mujeres embarazadas. Este enfoque redujo el tiempo de análisis de meses a minutos en algunos casos.

India ha lanzado una estrategia nacional para sistemas computacionales avanzados en salud, centrada en la integración en la arquitectura del sistema sanitario en lugar de meros complementos. El enfoque prioriza infraestructuras como registros interoperables y supervisión continua para garantizar la equidad. Esto contrasta con las tendencias globales donde la regulación suele quedarse atrás de la innovación.

Reportado por IA

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

Investigadores de la Universidad de Duke han desarrollado un marco de inteligencia artificial que revela reglas sencillas subyacentes a sistemas altamente complejos en la naturaleza y la tecnología. Publicado el 17 de diciembre en npj Complexity, la herramienta analiza datos de series temporales para producir ecuaciones compactas que capturan comportamientos esenciales. Este enfoque podría cerrar lagunas en la comprensión científica donde los métodos tradicionales son insuficientes.

Reportado por IA

Un comentario de CNET argumenta que describir la IA como poseedora de cualidades humanas como almas o confesiones despista al público y erosiona la confianza en la tecnología. Destaca cómo empresas como OpenAI y Anthropic usan dicho lenguaje, que oculta problemas reales como sesgos y seguridad. El texto llama a una terminología más precisa para fomentar una comprensión acertada.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar