Un tiroteo masivo en Columbia Británica ha atraído la atención a la campaña del director ejecutivo de OpenAI, Sam Altman, por protecciones de privacidad en conversaciones con IA. El tirador habría discutido escenarios de violencia armada con ChatGPT meses antes del ataque, pero OpenAI no alertó a las autoridades. Funcionarios canadienses cuestionan la gestión de la compañía en el caso.
El 10 de febrero, Jesse Van Rootselaar, descrito como vistiendo un vestido, mató a su madre y a su hermano antes de dirigirse a la Tumbler Ridge Secondary School en Columbia Británica, donde disparó mortalmente a seis personas más, incluidas cinco niños de 12 y 13 años. Van Rootselaar murió ese día por una herida de bala autoinfligida causada por él mismo. Meses antes, Van Rootselaar mantuvo conversaciones con ChatGPT sobre escenarios de violencia armada en junio de 2025, lo que generó preocupación entre empleados de OpenAI. Según un informe del Wall Street Journal, estas interacciones no se reportaron a las fuerzas del orden, aunque su cuenta fue suspendida. El contenido de las conversaciones sigue sin aclararse. Tras identificar a Van Rootselaar como el autor, OpenAI contactó a la Policía Montada Real de Canadá para ayudar en la investigación. Sin embargo, funcionarios canadienses expresaron su insatisfacción con la respuesta de OpenAI y han convocado a empleados de la compañía para discutir el incidente. El suceso ha puesto el foco en comentarios del director ejecutivo de OpenAI, Sam Altman, en una entrevista de septiembre con Tucker Carlson, donde defendió una política de 'privilegio de IA'. Altman declaró: «Si pudiera lograr que se apruebe una medida política ahora mismo, relacionada con la IA, lo que más me gustaría... es que existiera un concepto de privilegio de IA». Lo comparó con las protecciones para comunicaciones entre médicos y pacientes o abogados y clientes, argumentando que la sociedad tiene interés en mantener privadas tales interacciones con IA frente al acceso gubernamental, incluso mediante citación judicial. Altman señaló que recientemente había defendido esta idea en Washington, D.C., y expresó optimismo sobre su adopción. El primer ministro de Columbia Británica, David Eby, comentó sobre informes de que OpenAI tuvo aviso potencial previo de las intenciones del tirador. «Con shock y consternación, como muchos habitantes de Columbia Británica, estoy intentando entender cómo es posible que un gran grupo de empleados de una organización pudiera elevar este tipo de información y solicitar que se llamara a la policía, y que se decidiera no hacerlo», dijo Eby. Desde fuera, sugirió que OpenAI podría haber evitado el tiroteo e instó al gobierno federal de Canadá a establecer un umbral nacional de reporte para empresas de IA sobre planes de violencia. El ministro federal de IA de Canadá, Evan Solomon, se reunió el martes con personal de OpenAI para revisar los protocolos de seguridad. OpenAI sostiene que sus modelos desalientan la violencia en el mundo real e incluyen sistemas para detectar contenido preocupante, revisarlo y, en su caso, remitirlo a las fuerzas del orden. La compañía no ha comentado si Altman sigue apoyando la inmunidad de privacidad para IA. Tales privilegios podrían complicar las respuestas a amenazas de violencia, similar a las obligaciones de reporte obligatorio de profesionales de la salud mental en casos de peligro inminente.