Dans les bureaux de Google à New York, des prototypes de lunettes intelligentes ont démontré des fonctionnalités avancées comme la traduction en temps réel et l’intégration d’applications. Ces appareils, mêlant assistance IA et technologie wearable, sont prêts à être lancés en 2026 par de grandes entreprises. Cette tendance signale un virage vers des compagnons de réalité augmentée du quotidien.
Début décembre, dans les bureaux de Google au Pier 57 surplombant l’Hudson, des prototypes ont présenté la prochaine vague de lunettes intelligentes. Une paire sans fil projetait Google Maps au sol, fournissait des mises à jour Uber et traduisait le chinois parlé en temps réel. Une autre, reliée à un appareil semblable à un téléphone, permettait l’utilisation d’apps comme un casque de réalité mixte, avec connexions PC pour des jeux 3D contrôlés par gestes.
Ces innovations s’appuient sur des produits existants comme les lunettes Ray-Ban de Meta, qui jouent de la musique, capturent des photos et intègrent l’IA pour des aides visuelles. Les ventes des lunettes Ray-Ban Meta ont bondi de 200 % au premier semestre 2025, dépassant 2 millions d’unités. Des entreprises comme Google, Samsung, Meta, Snap et TCL impulsent cette expansion, EssilorLuxottica rapportant une forte croissance via des partenariats.
Sameer Samat, responsable Android de Google, a décrit la vision : « Ce dont nous avons parlé à l’origine, quand nous avons présenté la vision de cette plateforme, ce étaient les vieux films Iron Man où Tony Stark a un Jarvis qui l’aide... c’est un agent qui peut travailler avec vous et résoudre une tâche dans l’espace où vous êtes. Et je pense que c’est une vision super excitante. »
L’IA est au cœur, permettant une assistance contextuelle via caméras et micros. Les Ray-Ban Displays de Meta disposent d’un bracelet neural pour contrôles gestuels, tandis que des modèles à venir de Warby Parker et Gentle Monster se connecteront aux services Google comme Maps et Uber. Des défis persistent, dont l’autonomie de la batterie — Displays Meta tient environ deux heures — et la compatibilité verres correcteurs, limitée à +4/-4 dans certains cas.
Les préoccupations de confidentialité planent, avec des questions sur la collecte de données et les indicateurs d’enregistrement. Andrew Bosworth, CTO de Meta, envisage des options variées de lunettes : « Nous voyons émerger des strates où il y aura beaucoup de lunettes IA différentes, plateformes, wearables IA en général. Et les gens choisiront celle qui convient à leur vie. »
Les applications d’assistance brillent, comme les lunettes auditives approuvées par la FDA de Nuance Audio ou l’intégration Meta avec Be My Eyes pour malvoyants. Un utilisateur a noté : « Les lunettes ont changé la donne pour moi... Je peux regarder un menu et les lunettes me le lisent. » D’ici 2026, attendez une disponibilité étendue, bien que batterie toute la journée et intégration fluide restent des objectifs.