Sesgo

Seguir
Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Imagen generada por IA

Herramientas de IA para cáncer pueden inferir demografía de pacientes, generando preocupaciones por sesgos

Reportado por IA Imagen generada por IA Verificado por hechos

Los sistemas de inteligencia artificial diseñados para diagnosticar cáncer a partir de muestras de tejido están aprendiendo a inferir la demografía de los pacientes, lo que lleva a un rendimiento diagnóstico desigual entre grupos raciales, de género y de edad. Investigadores de la Harvard Medical School y colaboradores identificaron el problema y desarrollaron un método que reduce drásticamente estas disparidades, subrayando la necesidad de revisiones rutinarias de sesgos en la IA médica.

Una nueva investigación muestra que los algoritmos personalizados en plataformas como YouTube pueden obstaculizar el aprendizaje al limitar la exposición a la información, incluso para aquellos sin conocimientos previos. Los participantes en un estudio exploraron menos material, sacaron conclusiones incorrectas y se sintieron excesivamente confiados en sus errores. Los hallazgos destacan riesgos para una comprensión sesgada en las interacciones digitales cotidianas.

Reportado por IA

Un abogado de la Fundación Wikimedia ha respondido a las acusaciones del senador Ted Cruz sobre un sesgo de izquierda en Wikipedia, atribuyendo las preocupaciones a malentendidos sobre el proceso de edición impulsado por voluntarios de la plataforma. Jacob Rogers enfatizó que la fundación no controla el contenido y da la bienvenida a la participación de cualquier persona insatisfecha con los artículos. La carta de Cruz exige documentos sobre supervisión y sesgo, pero no tiene peso legal.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar