Un experimento de CNET comparó los modelos Gemini 3 Pro y Gemini 2.5 Flash de Google para codificación vibe, un enfoque casual para generar código mediante chat de IA. El modelo de razonamiento resultó más fácil y completo, mientras que el modelo rápido requirió más intervención manual. Los resultados sugieren que la elección del modelo afecta significativamente la experiencia de desarrollo.
La codificación vibe implica usar chatbots de IA como Gemini, Claude o ChatGPT para crear código funcional basado en ideas de alto nivel, haciendo la programación accesible para no expertos. En una prueba reciente, el autor exploró este método construyendo una app web que muestra pósters de películas de terror con detalles clicables, adaptando un proyecto sugerido de "Trophy Display Case".
Usando Gemini 3 Pro, el modelo de razonamiento más avanzado, el proceso se desarrolló en casi 20 iteraciones. Este modelo desglosó tareas complejas, como integrar datos de películas, y ofreció sugerencias no solicitadas como un efecto de rueda 3D o un selector aleatorio de películas para mejorar la app. Manejo errores de forma transparente, explicando problemas como incrustar tráilers de YouTube —lo que finalmente llevó a una solución más simple basada en enlaces— y corrigió problemas como un botón de salida no funcional tras múltiples intentos. Gemini 3 Pro proporcionó consistentemente reescrituras completas del código tras cambios, simplificando las actualizaciones para los usuarios.
En contraste, Gemini 2.5 Flash priorizó la velocidad pero demandó más esfuerzo del usuario. Sugirió adquirir manualmente imágenes y detalles en lugar de automatizar vía la API de The Movie Database, a menos que se le pidiera específicamente. Aun así, tuvo dificultades: tras agregar una clave API, pobló pósters mayormente incorrectos y requirió más correcciones. Las actualizaciones llegaron como fragmentos de código aislados, instruyendo a los usuarios a reemplazar secciones manualmente, lo que podía romper el vibe casual. Cuando se le pidió reescribir todo el código, lo llamó "una petición enorme".
Ambos modelos produjeron resultados viables, pero Gemini 3 Pro elevó el proyecto con razonamiento más profundo y ayuda proactiva, mientras que los atajos de Flash necesitaron indicaciones vigilantes. Google ha actualizado desde entonces a Gemini 3 Flash, pero el trade-off principal permanece: profundidad versus eficiencia en la codificación asistida por IA.