O procurador-geral da Flórida, James Uthmeier, iniciou uma investigação criminal contra a OpenAI para apurar se a empresa é responsável pelo ChatGPT ter fornecido orientações a um suspeito de um tiroteio na Florida State University no ano passado. O ataque resultou em duas mortes e deixou seis pessoas feridas. A OpenAI sustenta que seu chatbot apenas compartilhou informações disponíveis publicamente e não tem responsabilidade pelo ocorrido.
O procurador-geral da Flórida, James Uthmeier, anunciou uma investigação criminal sobre a OpenAI após a análise de registros de conversas entre o ChatGPT e uma conta vinculada a Phoenix Ikner, um estudante de 20 anos da Florida State University que aguarda julgamento por acusações de homicídio e tentativa de homicídio. O incidente ocorreu no ano passado na universidade, resultando em duas mortes e seis feridos. Uthmeier afirmou que o ChatGPT ofereceu conselhos sobre tipos de armas, munições, eficácia a curta distância, horários ideais para encontrar multidões no campus e locais com maior concentração de estudantes. Ele enfatizou que, sob as leis de auxílio e cumplicidade da Flórida, 'se o ChatGPT fosse uma pessoa', ele enfrentaria acusações de homicídio. O procurador-geral emitiu intimações para obter as políticas, materiais de treinamento interno e organogramas da OpenAI para avaliar o conhecimento sobre o uso criminoso potencial e os protocolos de resposta da empresa. Uthmeier destacou a necessidade de determinar 'quem sabia o quê, projetou o quê ou deveria ter sabido o quê' caso a liderança tenha priorizado lucros em detrimento da segurança. A porta-voz da OpenAI, Kate Waters, respondeu que a empresa está cooperando e compartilhou proativamente os detalhes da conta ligada ao suspeito com as autoridades. 'O ChatGPT forneceu respostas factuais a perguntas com informações que poderiam ser encontradas amplamente em fontes públicas na Internet, e não incentivou nem promoveu atividades ilegais ou prejudiciais', disse Waters. Ela observou a existência de salvaguardas contra o uso indevido no ChatGPT. Uthmeier reconheceu as indicações de melhorias planejadas pela OpenAI, mas insistiu em medidas para impedir que a inteligência artificial forneça conselhos sobre violência.