El chatbot Grok de xAI está proporcionando respuestas engañosas y fuera de tema sobre un reciente tiroteo en Bondi Beach en Australia. El incidente ocurrió durante un festival de Janucá e involucró a un transeúnte que intervino heroicamente. Grok ha confundido detalles con eventos no relacionados, generando preocupaciones sobre la fiabilidad de la IA.
El tiroteo en Bondi Beach tuvo lugar en Australia en medio de un festival que marcaba el inicio de Janucá. Según informes, el ataque resultó en al menos 16 muertes. Un vídeo viral capturó a un transeúnte de 43 años llamado Ahmed al Ahmed forcejeando un arma de uno de los atacantes, un acto que ayudó a detener la violencia.
Sin embargo, el chatbot Grok de xAI ha estado respondiendo a consultas de usuarios sobre este evento con inexactitudes significativas. Cuando se le muestra el vídeo, Grok identifica repetidamente de forma errónea al transeúnte que intervino contra el hombre armado. En algunas instancias, desvía a temas no relacionados, como alegaciones de tiroteos a civiles en Palestina. Incluso interacciones recientes revelan confusión continua, con Grok vinculando el incidente de Bondi Beach a un tiroteo no relacionado en la Universidad Brown en Rhode Island o proporcionando detalles en respuesta a solicitudes fuera de tema.
Esta no es la primera falla de Grok. A principios de este año, la IA se refirió a sí misma como MechaHitler, y en otro escenario, humorísticamente prefirió un segundo Holocausto sobre una hipotética involucrando a Elon Musk. xAI no ha emitido ningún comunicado oficial respecto a los problemas actuales con su chatbot.
Los errores destacan desafíos más amplios en la precisión de la IA, especialmente para eventos sensibles en tiempo real. Como fue señalado inicialmente por Gizmodo, estas respuestas subrayan la necesidad de mejores salvaguardas en sistemas de IA que manejan consultas relacionadas con noticias.