Imágenes Médicas

Seguir
Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Imagen generada por IA

Un estudio revela que a los radiólogos y a los modelos de IA les cuesta identificar radiografías “deepfake” generadas por IA

Reportado por IA Imagen generada por IA Verificado por hechos

Un estudio publicado el 24 de marzo de 2026 en *Radiology* informa que las radiografías “deepfake” generadas por IA pueden ser lo suficientemente convincentes como para engañar a radiólogos y a varios sistemas de IA multimodal. En las pruebas, la precisión media de los radiólogos aumentó del 41 %, cuando no se les advirtió de la presencia de imágenes falsas, al 75 % cuando se les informó, lo que pone de relieve los riesgos potenciales para la seguridad de las imágenes médicas y la toma de decisiones clínicas.

Investigadores de la Universidad de Missouri informan que un pequeño fragmento de anticuerpo dirigido a la proteína EphA2 puede etiquetarse con un marcador radiactivo para hacer que los tumores positivos para EphA2 destaquen en escáneres PET en experimentos con ratones, un paso que, según ellos, podría ayudar a emparejar pacientes con terapias dirigidas a EphA2.

Reportado por IA

Investigadores de la Universidad de Michigan han desarrollado un sistema de IA llamado Prima que interpreta exploraciones de RM cerebrales en segundos, identificando afecciones neurológicas con hasta un 97,5 % de precisión. La herramienta también señala casos urgentes como ictus y hemorragias cerebrales, lo que podría acelerar las respuestas médicas. Los hallazgos del estudio aparecen en Nature Biomedical Engineering.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar