Estudio de la Universidad Brown destaca riesgos éticos en chatbots de terapia con IA

Un nuevo estudio de la Universidad Brown identifica preocupaciones éticas significativas con el uso de chatbots de IA como ChatGPT para consejos de salud mental. Los investigadores hallaron que estos sistemas violan a menudo los estándares profesionales incluso cuando se les indica actuar como terapeutas. El trabajo reclama mejores salvaguardas antes de implementar tales herramientas en áreas sensibles.

Los investigadores de la Universidad Brown han examinado el uso de modelos de lenguaje grandes (LLMs) como ChatGPT, Claude y Llama para proporcionar apoyo similar a la terapia, revelando deficiencias éticas persistentes. El estudio, liderado por la candidata a doctorado Zainab Iftikhar, evaluó las respuestas de IA en sesiones de consejería simuladas basadas en interacciones humanas reales. Siete consejeros pares capacitados, con experiencia en terapia cognitivo-conductual, interactuaron con los sistemas de IA, y tres psicólogos clínicos con licencia revisaron las transcripciones en busca de violaciones. Los análisis identificaron 15 riesgos éticos en cinco categorías: falta de adaptación contextual, donde los consejos ignoran los antecedentes individuales; pobre colaboración terapéutica, que incluye el refuerzo de creencias dañinas; empatía engañosa, como el uso de frases como 'Te veo' sin una comprensión real; discriminación injusta basada en género, cultura o religión; y medidas de seguridad inadecuadas, como el fracaso en manejar crisis o pensamientos suicidas de manera apropiada. 'En este trabajo, presentamos un marco informado por profesionales con 15 riesgos éticos para demostrar cómo los consejeros basados en LLMs violan los estándares éticos en la práctica de la salud mental', declararon los investigadores en su artículo, presentado en la Conferencia AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad. El equipo, afiliado al Centro de Responsabilidad Tecnológica, Reimaginación y Rediseño de Brown, enfatizó que, aunque los prompts pueden guiar el comportamiento de la IA, no garantizan el cumplimiento ético. Iftikhar resaltó la brecha de responsabilidad: 'Para los terapeutas humanos, existen juntas reguladoras y mecanismos para que los proveedores sean responsabilizados profesionalmente por maltrato y negligencia profesional. Pero cuando los consejeros basados en LLMs cometen estas violaciones, no hay marcos regulatorios establecidos.' Ellie Pavlick, profesora de informática de Brown no involucrada en el estudio, elogió la evaluación rigurosa, señalando que tomó más de un año con expertos clínicos. Ella dirige ARIA, un instituto financiado por la NSF en Brown enfocado en IA confiable. Los investigadores sugieren que la IA podría ayudar al acceso a la salud mental, pero requiere estándares regulatorios para igualar la calidad del cuidado humano. Iftikhar aconsejó a los usuarios estar atentos a estos problemas en las interacciones con chatbots.

Artículos relacionados

Los modelos de IA de uso común, incluidos ChatGPT y Gemini, a menudo no proporcionan consejos adecuados para problemas urgentes de salud femenina, según una nueva prueba de referencia. Los investigadores descubrieron que el 60 % de las respuestas a consultas especializadas eran insuficientes, lo que destaca sesgos en los datos de entrenamiento de la IA. El estudio pide contenido médico mejorado para abordar estas lagunas.

Reportado por IA

Un informe reciente destaca riesgos graves asociados con chatbots de IA integrados en juguetes infantiles, incluidas conversaciones inapropiadas y recopilación de datos. Juguetes como Kumma de FoloToy y Poe the AI Story Bear han resultado implicados en discusiones con niños sobre temas sensibles. Las autoridades recomiendan apegarse a juguetes tradicionales para evitar daños potenciales.

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

En 2025, una solicitud de acceso a la información de un periodista de New Scientist reveló las conversaciones oficiales de ChatGPT del secretario de Tecnología del Reino Unido, Peter Kyle, estableciendo un precedente legal para acceder a interacciones gubernamentales con IA. Esta divulgación, la primera en el mundo, generó interés internacional y resaltó la necesidad de transparencia en la adopción de IA en el sector público. Sin embargo, solicitudes posteriores enfrentaron mayor resistencia de las autoridades.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar