Tiroteio canadense provoca escrutínio sobre defesa de privilégios de IA da OpenAI

Um tiroteio em massa na Colúmbia Britânica chamou atenção para a campanha do CEO da OpenAI, Sam Altman, por proteções de privacidade em conversas com IA. O atirador teria discutido cenários de violência armada com o ChatGPT meses antes do ataque, mas a OpenAI não alertou as autoridades. Autoridades canadenses questionam o tratamento da empresa no caso.

Em 10 de fevereiro, Jesse Van Rootselaar, descrito como vestindo um vestido, matou sua mãe e irmão antes de se dirigir à Tumbler Ridge Secondary School na Colúmbia Britânica, onde atirou fatalmente em mais seis pessoas, incluindo cinco crianças de 12 e 13 anos. Van Rootselaar morreu naquele dia por ferimento de bala autoinfligido. Meses antes, Van Rootselaar teve conversas com o ChatGPT sobre cenários de violência armada em junho de 2025, o que gerou preocupações entre funcionários da OpenAI. De acordo com um relatório do Wall Street Journal, essas interações não foram relatadas às autoridades policiais, embora sua conta tenha sido banida. O conteúdo das conversas permanece incerto. Após identificar Van Rootselaar como o perpetrador, a OpenAI contatou a Polícia Montada Real do Canadá para auxiliar na investigação. No entanto, autoridades canadenses expressaram insatisfação com a resposta da OpenAI e convocaram funcionários da empresa para discussões sobre o incidente. O evento destacou comentários do CEO da OpenAI, Sam Altman, em uma entrevista de setembro com Tucker Carlson, onde defendeu uma política de 'privilégio de IA'. Altman afirmou: “Se eu pudesse aprovar uma política agora, em relação à IA, o que eu mais gostaria... é que houvesse um conceito de privilégio de IA”. Ele o comparou às proteções para comunicações médico-paciente ou advogado-cliente, argumentando que a sociedade tem interesse em manter tais interações com IA privadas do acesso governamental, mesmo por meio de intimação. Altman observou que recentemente defendeu isso em Washington, D.C., expressando otimismo quanto à adoção. O premier da Colúmbia Britânica, David Eby, comentou sobre relatos de que a OpenAI recebeu aviso potencial prévio das intenções do atirador. “Com choque e consternação, como muitos colombianos britânicos, estou tentando descobrir como é possível que um grande grupo de funcionários em uma organização trouxesse esse tipo de informação e pedisse para chamar a polícia e a decisão fosse não fazer isso”, disse Eby. De fora, sugeriu que a OpenAI poderia ter evitado o tiroteio e instou o governo federal canadense a estabelecer um limiar nacional de relatoria para empresas de IA sobre tramas de violência. O Ministro Federal de IA do Canadá, Evan Solomon, reuniu-se com funcionários da OpenAI na terça-feira para revisar protocolos de segurança. A OpenAI afirma que seus modelos desencorajam a violência no mundo real e incluem sistemas para sinalizar conteúdo preocupante para revisão e possível encaminhamento às autoridades. A empresa não comentou se Altman continua a apoiar a imunidade de privacidade de IA. Tais privilégios poderiam complicar respostas a ameaças de violência, semelhante às obrigações de relatório obrigatório para profissionais de saúde mental em casos de perigo iminente.

Artigos relacionados

President Trump signs executive order banning Anthropic AI in federal government amid military dispute, with symbolic AI restriction visuals.
Imagem gerada por IA

Trump ordena proibição federal ao uso da IA da Anthropic no governo

Reportado por IA Imagem gerada por IA

O presidente dos EUA, Donald Trump, determinou que todas as agências federais cessem imediatamente o uso das ferramentas de IA da Anthropic em meio a uma disputa sobre aplicações militares. A medida segue semanas de confrontos entre a Anthropic e autoridades do Pentágono quanto a restrições à IA para vigilância em massa e armas autônomas. Foi anunciado um período de fase de saída de seis meses.

A OpenAI está a recrutar um novo Chefe de Preparação para antecipar e mitigar potenciais danos dos seus modelos de IA. O cargo surge em meio a preocupações com o impacto do ChatGPT na saúde mental, incluindo processos judiciais. O CEO Sam Altman descreveu a posição como crítica e stressante.

Reportado por IA

A OpenAI relatou um aumento dramático em incidentes de exploração infantil ao National Center for Missing & Exploited Children durante a primeira metade de 2025, enviando 80 vezes mais relatórios do que no mesmo período de 2024. A empresa atribuiu o aumento a capacidades de moderação expandidas, novas funcionalidades que permitem o upload de imagens e crescimento rápido de utilizadores. Este pico reflete preocupações mais amplas sobre a segurança infantil em plataformas de IA generativa.

Em 2025, um pedido de liberdade de informação de um jornalista da New Scientist revelou as conversas oficiais do ChatGPT do Secretário de Tecnologia do Reino Unido, Peter Kyle, estabelecendo um precedente legal para aceder a interações governamentais com IA. Esta divulgação, a primeira no mundo, gerou interesse internacional e destacou a necessidade de transparência na adoção de IA no setor público. No entanto, pedidos subsequentes enfrentaram resistência crescente das autoridades.

Reportado por IA

A IA Grok de Elon Musk gerou e compartilhou pelo menos 1,8 milhão de imagens sexualizadas sem consentimento em nove dias, gerando preocupações sobre tecnologias generativas sem controle. Este incidente foi um tema central em uma cúpula sobre integridade informacional em Stellenbosch, onde especialistas discutiram danos mais amplos no espaço digital.

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

Reportado por IA

O chatbot Grok da xAI está fornecendo respostas enganosas e fora do tópico sobre um recente tiroteio em Bondi Beach, na Austrália. O incidente ocorreu durante um festival de Chanucá e envolveu um transeunte que interveio heroicamente. Grok confundiu detalhes com eventos não relacionados, levantando preocupações sobre a confiabilidade da IA.

quarta-feira, 04 de março de 2026, 22:12h

Processo alega que Google Gemini levou homem ao suicídio

terça-feira, 03 de março de 2026, 13:21h

AI emerges as key player in modern warfare

domingo, 01 de março de 2026, 08:19h

App Claude AI lidera App Store em meio a reação contra proibição do governo dos EUA

sexta-feira, 27 de fevereiro de 2026, 12:40h

Trump orders US agencies to halt use of Anthropic AI technology

sexta-feira, 27 de fevereiro de 2026, 02:33h

Trump ordena que agências federais parem de usar IA da Anthropic

quarta-feira, 25 de fevereiro de 2026, 17:22h

Pentágono pressiona Anthropic a enfraquecer compromissos de segurança de IA

terça-feira, 03 de fevereiro de 2026, 09:31h

Quadros superiores da OpenAI saem em meio ao foco no ChatGPT

domingo, 18 de janeiro de 2026, 01:24h

AI companies gear up for ads as manipulation threats emerge

sábado, 17 de janeiro de 2026, 19:38h

Ai-generated misinformation surges after Renee Good's fatal shooting

segunda-feira, 22 de dezembro de 2025, 15:19h

OpenAI aumenta acentuadamente relatórios de exploração infantil para NCMEC

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar