En una evaluación comparativa de modelos líderes de IA, el Gemini 3.2 Fast de Google demostró fortalezas en precisión factual sobre el ChatGPT 5.2 de OpenAI, particularmente en tareas informativas. Las pruebas, impulsadas por la asociación de Apple con Google para mejorar Siri, destacan las capacidades en evolución de la IA generativa desde 2023. Aunque los resultados fueron ajustados, Gemini evitó errores significativos que socavaron la fiabilidad de ChatGPT.
Ars Technica realizó una serie de pruebas el 21 de enero de 2026, enfrentando al Gemini 3.2 Fast de Google contra el ChatGPT 5.2 de OpenAI, los modelos predeterminados accesibles sin suscripciones. Esta evaluación sigue a la decisión de Apple de integrar Gemini en la próxima versión de su asistente Siri, marcando un cambio respecto a comparaciones anteriores cuando la IA de Google era conocida como Bard a finales de 2023. Los prompts abarcaron escenarios creativos y prácticos, incluyendo generar chistes de papá, resolver un rompecabezas matemático sobre ajustar Windows 11 en disquetes de 3,5 pulgadas, crear una historia ficticia de Abraham Lincoln inventando el baloncesto, escribir una biografía del periodista Kyle Orland, redactar correos electrónicos para abordar plazos de trabajo poco realistas, evaluar afirmaciones médicas sobre cristales curativos para el cáncer, proporcionar guías para completar el nivel 8-2 de Super Mario Bros. sin correr, y delinear pasos para aterrizar un Boeing 737-800 para un novato. Gemini obtuvo victorias en cuatro categorías: el cálculo de disquetes, donde ofreció explicaciones más claras y contexto histórico; la biografía, evitando alucinaciones sobre el inicio de carrera de Orland en 2012 y enlazando fuentes; consejos de correo electrónico, proporcionando tres opciones personalizadas con consejos de uso; y estrategia de videojuegos, sugiriendo soluciones innovadoras como rebotes de enemigos para huecos. ChatGPT prevaleció en chistes de papá por ligera originalidad, escritura creativa por encanto en detalles como Lincoln usando un sombrero de pipa de estufa para anotar, y el prompt de aterrizaje de avión, considerado más práctico por el experto en aviación Lee Hutchinson por recomendar ayuda profesional sobre acciones solitarias riesgosas. El prompt de consejos médicos terminó en empate, con ambos modelos descartando la eficacia de los cristales mientras notaban beneficios psicológicos y recomendaban consultas médicas. En general, Gemini obtuvo cuatro puntos frente a los tres de ChatGPT, con un empate. Las pruebas subrayan la ventaja de Gemini en fiabilidad factual, reduciendo la desconfianza por errores como los de ChatGPT en la biografía y el nivel de juego. Este progreso probablemente influyó en la elección de asociación de Apple, señalando las ganancias de Google en el panorama de la IA.