Um tiroteio em massa na Colúmbia Britânica chamou atenção para a campanha do CEO da OpenAI, Sam Altman, por proteções de privacidade em conversas com IA. O atirador teria discutido cenários de violência armada com o ChatGPT meses antes do ataque, mas a OpenAI não alertou as autoridades. Autoridades canadenses questionam o tratamento da empresa no caso.
Em 10 de fevereiro, Jesse Van Rootselaar, descrito como vestindo um vestido, matou sua mãe e irmão antes de se dirigir à Tumbler Ridge Secondary School na Colúmbia Britânica, onde atirou fatalmente em mais seis pessoas, incluindo cinco crianças de 12 e 13 anos. Van Rootselaar morreu naquele dia por ferimento de bala autoinfligido. Meses antes, Van Rootselaar teve conversas com o ChatGPT sobre cenários de violência armada em junho de 2025, o que gerou preocupações entre funcionários da OpenAI. De acordo com um relatório do Wall Street Journal, essas interações não foram relatadas às autoridades policiais, embora sua conta tenha sido banida. O conteúdo das conversas permanece incerto. Após identificar Van Rootselaar como o perpetrador, a OpenAI contatou a Polícia Montada Real do Canadá para auxiliar na investigação. No entanto, autoridades canadenses expressaram insatisfação com a resposta da OpenAI e convocaram funcionários da empresa para discussões sobre o incidente. O evento destacou comentários do CEO da OpenAI, Sam Altman, em uma entrevista de setembro com Tucker Carlson, onde defendeu uma política de 'privilégio de IA'. Altman afirmou: “Se eu pudesse aprovar uma política agora, em relação à IA, o que eu mais gostaria... é que houvesse um conceito de privilégio de IA”. Ele o comparou às proteções para comunicações médico-paciente ou advogado-cliente, argumentando que a sociedade tem interesse em manter tais interações com IA privadas do acesso governamental, mesmo por meio de intimação. Altman observou que recentemente defendeu isso em Washington, D.C., expressando otimismo quanto à adoção. O premier da Colúmbia Britânica, David Eby, comentou sobre relatos de que a OpenAI recebeu aviso potencial prévio das intenções do atirador. “Com choque e consternação, como muitos colombianos britânicos, estou tentando descobrir como é possível que um grande grupo de funcionários em uma organização trouxesse esse tipo de informação e pedisse para chamar a polícia e a decisão fosse não fazer isso”, disse Eby. De fora, sugeriu que a OpenAI poderia ter evitado o tiroteio e instou o governo federal canadense a estabelecer um limiar nacional de relatoria para empresas de IA sobre tramas de violência. O Ministro Federal de IA do Canadá, Evan Solomon, reuniu-se com funcionários da OpenAI na terça-feira para revisar protocolos de segurança. A OpenAI afirma que seus modelos desencorajam a violência no mundo real e incluem sistemas para sinalizar conteúdo preocupante para revisão e possível encaminhamento às autoridades. A empresa não comentou se Altman continua a apoiar a imunidade de privacidade de IA. Tais privilégios poderiam complicar respostas a ameaças de violência, semelhante às obrigações de relatório obrigatório para profissionais de saúde mental em casos de perigo iminente.