Tesla lanza presentación de IA sobre avances en FSD

El vicepresidente de IA de Tesla, Ashok Elluswamy, ha lanzado una presentación de 30 minutos que detalla el progreso en el software Full Self-Driving (FSD), el desarrollo de IA y las últimas innovaciones del equipo. Presentada a través de la International Conference on Computer Vision (ICCV), resalta los vastos recursos de datos de Tesla y las nuevas herramientas de simulación. La charla subraya los esfuerzos hacia la escalabilidad global de robotaxis y la autonomía completa de la flota.

En la presentación, Elluswamy enfatizó la ventaja de datos inigualable de Tesla, afirmando que la flota de vehículos de la compañía genera '500 años de datos de conducción cada día'. Lo describió como un 'Niágara de datos', que comprende cientos de años de conducción colectiva de la flota, capturada a través de disparadores de datos inteligentes para casos extremos raros como intersecciones complejas y comportamientos impredecibles. Este enfoque permite a Tesla extraer solo datos esenciales para un entrenamiento de modelo eficiente, abordando la 'maldición de la dimensionalidad' donde ocho cámaras de alta tasa de fotogramas producen miles de millones de tokens por 30 segundos de contexto de conducción.

A pesar del sistema de red neuronal de extremo a extremo, Tesla mantiene la interpretabilidad para la depuración. Los ingenieros pueden solicitar al modelo que genere predicciones auxiliares como ocupación 3D, límites de carretera, objetos, señales y semáforos, que no controlan el vehículo pero ayudan en las verificaciones de seguridad. La consulta en lenguaje natural permite preguntas como por qué se tomó una decisión determinada. Además, Tesla desarrolló un sistema personalizado de salpicadura gaussiana ultra-rápido para reconstruir escenas 3D nítidas a partir de vistas de cámara limitadas, superando los métodos estándar de NeRF y salpicadura para depuración visual.

La evaluación sigue siendo un desafío clave, con modelos que destacan en entornos offline pero luchan en casos extremos del mundo real. Para contrarrestar esto, Tesla creó un simulador de mundo aprendido: un motor de video generado por red neuronal que simula ocho flujos de cámara de Tesla simultáneamente en entornos totalmente sintéticos. Soporta pruebas, entrenamiento, aprendizaje por refuerzo, inyección de eventos adversarios (por ejemplo, un peatón cortando el paso) y reproducción de fallos pasados, ejecutándose casi en tiempo real para simulaciones de conducción.

Mirando hacia el futuro, Elluswamy delineó planes para escalar servicios de robotaxi globalmente, lograr autonomía completa en toda la flota de Tesla e introducir el Cybercab: un vehículo de dos asientos de próxima generación optimizado para uso en robotaxi, con el objetivo de costos de transporte inferiores al transporte público. Las mismas redes neuronales impulsarán el robot humanoide Optimus, con el sistema de generación de video ahora aplicado para simular y planificar movimientos de robots.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar