Imágenes Médicas
Un estudio revela que a los radiólogos y a los modelos de IA les cuesta identificar radiografías “deepfake” generadas por IA
Reportado por IA Imagen generada por IA Verificado por hechos
Un estudio publicado el 24 de marzo de 2026 en *Radiology* informa que las radiografías “deepfake” generadas por IA pueden ser lo suficientemente convincentes como para engañar a radiólogos y a varios sistemas de IA multimodal. En las pruebas, la precisión media de los radiólogos aumentó del 41 %, cuando no se les advirtió de la presencia de imágenes falsas, al 75 % cuando se les informó, lo que pone de relieve los riesgos potenciales para la seguridad de las imágenes médicas y la toma de decisiones clínicas.
Investigadores de la Universidad de Missouri informan que un pequeño fragmento de anticuerpo dirigido a la proteína EphA2 puede etiquetarse con un marcador radiactivo para hacer que los tumores positivos para EphA2 destaquen en escáneres PET en experimentos con ratones, un paso que, según ellos, podría ayudar a emparejar pacientes con terapias dirigidas a EphA2.
Reportado por IA
Investigadores de la Universidad de Michigan han desarrollado un sistema de IA llamado Prima que interpreta exploraciones de RM cerebrales en segundos, identificando afecciones neurológicas con hasta un 97,5 % de precisión. La herramienta también señala casos urgentes como ictus y hemorragias cerebrales, lo que podría acelerar las respuestas médicas. Los hallazgos del estudio aparecen en Nature Biomedical Engineering.