Um experimento da CNET comparou os modelos Gemini 3 Pro e Gemini 2.5 Flash do Google para vibe coding, uma abordagem casual para gerar código via chat de IA. O modelo de raciocínio provou ser mais fácil e abrangente, enquanto o modelo rápido exigiu mais intervenção manual. Os resultados sugerem que a escolha do modelo afeta significativamente a experiência de desenvolvimento.
O vibe coding envolve o uso de chatbots de IA como Gemini, Claude ou ChatGPT para criar código funcional baseado em ideias de alto nível, tornando a programação acessível a não especialistas. Em um teste recente, o autor explorou esse método construindo um app web que exibe pôsteres de filmes de terror com detalhes clicáveis, adaptando um projeto sugerido de "Trophy Display Case".
Usando o Gemini 3 Pro, o modelo de raciocínio mais avançado, o processo se desenrolou em quase 20 iterações. Esse modelo decompôs tarefas complexas, como integrar dados de filmes, e ofereceu sugestões não solicitadas como um efeito de roda 3D ou seletor aleatório de filmes para aprimorar o app. Ele lidou com erros de forma transparente, explicando problemas como incorporar trailers do YouTube —o que acabou levando a uma solução mais simples baseada em links— e corrigiu problemas como um botão de saída não funcional após múltiplas tentativas. O Gemini 3 Pro forneceu consistentemente reescritas completas do código após mudanças, simplificando atualizações para os usuários.
Em contraste, o Gemini 2.5 Flash priorizou velocidade, mas exigiu mais esforço do usuário. Ele sugeriu adquirir imagens e detalhes manualmente em vez de automatizar via API do The Movie Database, a menos que solicitado especificamente. Mesmo assim, teve dificuldades: após adicionar uma chave de API, preencheu pôsteres majoritariamente incorretos e exigiu correções adicionais. As atualizações vieram como trechos de código isolados, instruindo os usuários a substituir seções manualmente, o que poderia perturbar o vibe casual. Quando pedido para reescrever todo o código, chamou o pedido de "um pedido enorme".
Ambos os modelos produziram resultados viáveis, mas o Gemini 3 Pro elevou o projeto com raciocínio mais profundo e ajuda proativa, enquanto os atalhos do Flash exigiram prompts vigilantes. O Google atualizou desde então para Gemini 3 Flash, mas o trade-off central permanece: profundidade versus eficiência na codificação assistida por IA.