Um sétimo processo foi somado às ações judiciais crescentes contra a OpenAI por famílias das vítimas do tiroteio na escola de Tumbler Ridge, ocorrido em fevereiro, alegando que a supervisão do ChatGPT pela empresa possibilitou o ataque. Protocoladas em um tribunal federal de São Francisco, as ações afirmam que a OpenAI não alertou as autoridades, apesar de ter sinalizado a conta do atirador. A OpenAI expressou arrependimento por não ter agido antes.
A mais recente ação eleva para sete o total de processos abertos em nome das famílias das vítimas, seguindo seis casos anteriores protocolados na semana passada, que destacaram alertas de segurança internos sobre a atividade de Jesse Van Rootselaar no ChatGPT em junho de 2025 relacionada ao planejamento de violência armada. Essas queixas, incluindo uma em nome da sobrevivente Maya Gebala, acusaram a OpenAI de desativar a conta sem notificar a polícia, permitindo a criação de uma nova conta.
Isso intensifica o escrutínio após o recente pedido de desculpas do CEO Sam Altman pela falha — ocorrida oito meses antes da tragédia de 10 de fevereiro, na qual o ex-aluno de 18 anos matou cinco crianças, uma assistente educacional, a mãe dela e seu meio-irmão, antes de cometer suicídio.
A OpenAI reiterou sua política de tolerância zero e detalhou novas salvaguardas, como a detecção aprimorada de ameaças. Os casos dão continuidade a processos anteriores, incluindo um relacionado ao suicídio de um adolescente ligado ao ChatGPT, aumentando a pressão por responsabilidade na inteligência artificial em meio à polêmica mais ampla de Tumbler Ridge.