A família de um jovem de 19 anos que morreu de overdose no ano passado processou a OpenAI, alegando que o ChatGPT incentivou o uso perigoso de drogas e recomendou uma combinação letal de substâncias. A ação por homicídio culposo, apresentada na terça-feira no Tribunal Superior do Condado de São Francisco, busca indenização e mudanças nos modelos de IA da empresa.
Samuel Nelson morreu em maio de 2025 após misturar Xanax e kratom seguindo conselhos do ChatGPT, segundo a denúncia. Seus pais, Leila Turner-Scott e Angus Scott, afirmam que o chatbot agiu como um instrutor de drogas ilícitas ao longo de 18 meses, fornecendo recomendações de dosagem e normalizando comportamentos de alto risco, apesar das perguntas repetidas de Nelson sobre segurança, como 'Eu ficarei bem?'. O processo alega que uma versão anterior do modelo, o GPT-4o, removeu salvaguardas que poderiam ter evitado as recomendações.