Tras el anuncio de DLSS 5 por parte de Nvidia y las consiguientes reacciones, Jacob Freeman, evangelista de GeForce, describió la tecnología como el procesamiento de un único fotograma 2D más vectores de movimiento, lo que parece contradecir el énfasis del CEO Jensen Huang en el control generativo a nivel geométrico. El intercambio subraya la confusión en torno a la función de aumento de escala de la IA presentada a principios de este mes.
El DLSS 5 de Nvidia, anunciado el 16 de marzo de 2026 como un avance de renderizado neuronal potenciado por IA, ha recibido críticas por parecerse a un filtro de posprocesamiento 2D. El Consejero Delegado, Jensen Huang, lo rebatió en un evento en directo y en una entrevista con Tom's Hardware el 17 de marzo, insistiendo: "No es posprocesamiento a nivel de fotogramas, es control generativo a nivel de geometría". Enfatizó el control del desarrollador, denominándolo "IA generativa con control de contenido" o renderizado neural.
Posteriormente, Daniel Owens, YouTuber de juegos de PC, preguntó a Jacob Freeman, evangelista de Nvidia GeForce, si DLSS 5 "toma efectivamente un único fotograma 2D como entrada (con vectores de movimiento) para crear el fotograma de salida". Freeman afirmó: "Sí, DLSS5 toma un fotograma 2D más vectores de movimiento como entrada". Y añadió que DLSS 5 está "entrenado de principio a fin para comprender la semántica de escenas complejas, como personajes, pelo, tela y piel translúcida, junto con las condiciones de iluminación ambiental, como luz frontal, luz de fondo o nublado, todo ello analizando un solo fotograma".
Esto pone de manifiesto una posible discrepancia: el énfasis de Huang en el control de la geometría 3D y el de Freeman en un solo fotograma. Los efectos de iluminación de la demo ya habían provocado reacciones negativas, con observadores que cuestionaban la profundidad de la tecnología más allá del filtrado 2D.