La IA generativa supera a equipos humanos en el análisis de datos médicos

Investigadores de la UC San Francisco y la Wayne State University descubrieron que la IA generativa puede procesar conjuntos de datos médicos complejos más rápido que los equipos humanos tradicionales, a veces con resultados más sólidos. El estudio se centró en predecir el parto prematuro utilizando datos de más de 1.000 mujeres embarazadas. Este enfoque redujo el tiempo de análisis de meses a minutos en algunos casos.

Científicos de la UC San Francisco y la Wayne State University realizaron una prueba en el mundo real de la IA generativa en investigación sanitaria, comparando su rendimiento con el de expertos humanos. La tarea consistía en predecir el parto prematuro, una de las principales causas de muerte neonatal en Estados Unidos, donde unos 1.000 bebés nacen prematuramente cada día. Los investigadores utilizaron datos de microbioma recopilados de aproximadamente 1.200 mujeres embarazadas en nueve estudios, obtenidos del March of Dimes Preterm Birth Data Repository. Para evaluar las capacidades de la IA, el equipo recurrió a conjuntos de datos del concurso de crowdsourcing DREAM, que anteriormente involucró a más de 100 equipos globales que desarrollaron modelos de aprendizaje automático para riesgos de parto prematuro y estimación de la edad gestacional. Los participantes humanos en esa competición tardaron unos tres meses en construir modelos, seguidos de casi dos años para consolidar y publicar los hallazzos. En el nuevo estudio, se dieron indicaciones en lenguaje natural a ocho chatbots de IA para generar código analítico sin programación humana directa. Solo cuatro de los sistemas produjeron código utilizable, pero los que lo lograron igualaron o superaron el rendimiento de los equipos humanos. Por ejemplo, un dúo junior —Reuben Sarwal, estudiante de maestría en UCSF, y Victor Tarca, estudiante de secundaria— desarrolló modelos de predicción con apoyo de IA, generando código funcional en minutos en lugar de las horas o días requeridos por programadores experimentados. Todo el proceso, desde la concepción hasta el envío a la revista, tomó solo seis meses. «Estas herramientas de IA podrían aliviar uno de los mayores cuellos de botella en la ciencia de datos: la construcción de nuestros flujos de análisis», dijo Marina Sirota, PhD, profesora de Pediatría en UCSF e investigadora principal del March of Dimes Prematurity Research Center. El coautor principal Adi L. Tarca, PhD, de la Wayne State University, añadió: «Gracias a la IA generativa, los investigadores con un conocimiento limitado en ciencia de datos no siempre necesitarán formar amplias colaboraciones o pasar horas depurando código. Podrán centrarse en responder las preguntas biomédicas adecuadas». El estudio, coescrito por Sirota y Tarca, enfatiza que la IA requiere supervisión humana para evitar resultados engañosos. Se publicó en Cell Reports Medicine el 17 de febrero, destacando el potencial para un progreso más rápido en la comprensión de los factores de riesgo de parto prematuro.

Artículos relacionados

Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Imagen generada por IA

Herramientas de IA para cáncer pueden inferir demografía de pacientes, generando preocupaciones por sesgos

Reportado por IA Imagen generada por IA Verificado por hechos

Los sistemas de inteligencia artificial diseñados para diagnosticar cáncer a partir de muestras de tejido están aprendiendo a inferir la demografía de los pacientes, lo que lleva a un rendimiento diagnóstico desigual entre grupos raciales, de género y de edad. Investigadores de la Harvard Medical School y colaboradores identificaron el problema y desarrollaron un método que reduce drásticamente estas disparidades, subrayando la necesidad de revisiones rutinarias de sesgos en la IA médica.

Los modelos de IA de uso común, incluidos ChatGPT y Gemini, a menudo no proporcionan consejos adecuados para problemas urgentes de salud femenina, según una nueva prueba de referencia. Los investigadores descubrieron que el 60 % de las respuestas a consultas especializadas eran insuficientes, lo que destaca sesgos en los datos de entrenamiento de la IA. El estudio pide contenido médico mejorado para abordar estas lagunas.

Reportado por IA

Investigadores de la Universidad de Michigan han desarrollado un sistema de IA llamado Prima que interpreta exploraciones de RM cerebrales en segundos, identificando afecciones neurológicas con hasta un 97,5 % de precisión. La herramienta también señala casos urgentes como ictus y hemorragias cerebrales, lo que podría acelerar las respuestas médicas. Los hallazgos del estudio aparecen en Nature Biomedical Engineering.

Investigadores de la Universidad de Duke han desarrollado un marco de inteligencia artificial que revela reglas sencillas subyacentes a sistemas altamente complejos en la naturaleza y la tecnología. Publicado el 17 de diciembre en npj Complexity, la herramienta analiza datos de series temporales para producir ecuaciones compactas que capturan comportamientos esenciales. Este enfoque podría cerrar lagunas en la comprensión científica donde los métodos tradicionales son insuficientes.

Reportado por IA

Los agentes de codificación con IA de empresas como OpenAI, Anthropic y Google permiten trabajos prolongados en proyectos de software, incluyendo la escritura de aplicaciones y la corrección de errores bajo supervisión humana. Estas herramientas se basan en modelos de lenguaje grandes pero enfrentan desafíos como el procesamiento limitado de contexto y altos costos computacionales. Comprender su mecánica ayuda a los desarrolladores a decidir cuándo desplegarlos de manera efectiva.

Una encuesta de la Cámara de Comercio e Industria de Corea (KCCI) muestra que los trabajadores surcoreanos han recortado sus horas en un promedio de 8,4 semanales, o 17,8 % en total, gracias a plataformas de IA generativa. Más de la mitad de los encuestados usan tales herramientas diariamente, con la mayor adopción en el sector de información y telecomunicaciones.

Reportado por IA

Un nuevo estudio de la Universidad Brown identifica preocupaciones éticas significativas con el uso de chatbots de IA como ChatGPT para consejos de salud mental. Los investigadores hallaron que estos sistemas violan a menudo los estándares profesionales incluso cuando se les indica actuar como terapeutas. El trabajo reclama mejores salvaguardas antes de implementar tales herramientas en áreas sensibles.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar