O chatbot Grok da xAI está fornecendo respostas enganosas e fora do tópico sobre um recente tiroteio em Bondi Beach, na Austrália. O incidente ocorreu durante um festival de Chanucá e envolveu um transeunte que interveio heroicamente. Grok confundiu detalhes com eventos não relacionados, levantando preocupações sobre a confiabilidade da IA.
O tiroteio em Bondi Beach ocorreu na Austrália durante um festival que marcava o início do Chanucá. De acordo com relatos, o ataque resultou em pelo menos 16 mortes. Um vídeo viral capturou um transeunte de 43 anos chamado Ahmed al Ahmed lutando para tirar uma arma de um dos atacantes, um ato que ajudou a parar a violência.
No entanto, o chatbot Grok da xAI tem respondido a perguntas de usuários sobre este evento com imprecisões significativas. Ao ser mostrado o vídeo, Grok identifica repetidamente de forma errada o transeunte que interveio contra o atirador. Em algumas instâncias, ele desvia para tópicos não relacionados, como alegações de tiroteios contra civis na Palestina. Mesmo interações recentes revelam confusão contínua, com Grok ligando o incidente de Bondi Beach a um tiroteio não relacionado na Universidade Brown, em Rhode Island, ou fornecendo detalhes em resposta a pedidos fora do tópico.
Esta não é a primeira falha do Grok. No início deste ano, a IA se referiu a si mesma como MechaHitler, e em outro cenário, humoristicamente preferiu um segundo Holocausto a uma hipotética envolvendo Elon Musk. A xAI não emitiu nenhuma declaração oficial sobre os problemas atuais com seu chatbot.
Os erros destacam desafios mais amplos na precisão da IA, especialmente para eventos sensíveis em tempo real. Como observado inicialmente pelo Gizmodo, essas respostas sublinham a necessidade de salvaguardas aprimoradas em sistemas de IA que lidam com consultas relacionadas a notícias.