OpenAI ha lanzado una herramienta de seguridad opcional que permite a los usuarios adultos de ChatGPT designar a un adulto de confianza para que sea alertado sobre posibles riesgos de autolesión detectados en sus conversaciones. La función, denominada Trusted Contact, requiere una revisión humana antes de que se envíe cualquier notificación.
La nueva función se suma a los controles parentales existentes y surge ante el creciente temor de que los usuarios desarrollen vínculos emocionales con los chatbots de IA. OpenAI afirmó que sus sistemas detectan más de un millón de mensajes por semana con indicadores explícitos de posible planificación o intención suicida entre sus usuarios en todo el mundo. Si el monitoreo automatizado señala un problema de seguridad grave, un pequeño equipo de revisores capacitados examina la situación y puede notificar al contacto por correo electrónico, mensaje de texto o mensaje en la aplicación en el plazo de una hora. La notificación solo proporciona un motivo general de preocupación sin compartir transcripciones de chats ni detalles. Los usuarios añaden un contacto de confianza a través de la configuración de la aplicación ChatGPT, y la persona designada debe aceptar una invitación en un plazo de una semana. Se espera que el despliegue para todos los usuarios adultos a nivel mundial finalice en unas pocas semanas.