Apple acquiert la startup israélienne Q.ai pour sa technologie de lecture labiale

Apple a acquis Q.ai, une startup israélienne développant une technologie de lecture labiale pour les interfaces d'IA dans les wearables. L'accord, évalué à environ 2 milliards de dollars, signale des changements potentiels dans la manière dont les utilisateurs interagissent avec des appareils comme les lunettes et les écouteurs. Ce mouvement s'appuie sur l'historique d'Apple en intégrant des technologies de capteurs avancées dans ses produits.

Apple a récemment acheté Q.ai, une startup israélienne peu connue axée sur l'activation d'interactions silencieuses avec les assistants IA via la lecture labiale. La technologie permet aux appareils d'interpréter des mouvements faciaux subtils, comme articuler des mots, en utilisant des capteurs optiques pour suivre les mouvements musculaires et labiaux près de la bouche. Selon des rapports du Financial Times et de Reuters, l'acquisition a coûté environ 2 milliards de dollars, marquant la plus grande affaire d'Apple depuis l'achat de Beats il y a dix ans. Le fondateur de Q.ai, Aviad Maizels, a précédemment co-créé PrimeSense, acquis par Apple en 2013. Cette technologie a alimenté le scan 3D de Kinect et est devenue plus tard la base du Face ID d'Apple et des fonctionnalités de suivi des mains du Vision Pro. Les brevets de Q.ai suggèrent des applications dans la reconnaissance des expressions émotionnelles et les entrées de commandes silencieuses, potentiellement améliorant les wearables comme AirPods, lunettes intelligentes ou Vision Pro. Cette acquisition s'inscrit dans l'écosystème plus large d'Apple de dispositifs IA connectés, incluant des pins IA rumorés, écouteurs avec caméras infrarouges et casques de réalité mixte. Comme l'a noté l'artiste en réalité augmentée Helen Papagiannis dans sa newsletter, «Le pin IA rumoré d'Apple a du sens moins comme produit autonome et plus comme un nœud dans l'écosystème d'Apple, tirant parti de capteurs partagés, d'intelligence et de contexte à travers des appareils fonctionnant de concert avec AirPods et, finalement, des lunettes.» Cette technologie pourrait rendre les interactions plus naturelles, réduisant la dépendance aux commandes vocales comme «Hey Siri». Cependant, des préoccupations de confidentialité émergent, car la capacité à détecter des expressions subtiles à distance pourrait permettre un suivi non intentionnel. Des concurrents comme Meta, avec son bracelet neuronal, et Google, explorant des lunettes basées sur les gestes, poursuivent des méthodes d'entrée subtiles similaires. Apple et Q.ai n'ont pas immédiatement répondu aux demandes de commentaires. Bien que les détails sur l'intégration restent flous, cet achat souligne une tendance vers des interfaces plus intuitives et non verbales dans la tech personnelle.

Articles connexes

Conceptual close-up of Apple's rumored 2027 AI wearable pin on a suit lapel, showcasing cameras, mics, and speaker in a realistic product render.
Image générée par IA

Apple développe un pin wearable alimenté par l’IA pour 2027

Rapporté par l'IA Image générée par IA

Apple développerait un petit appareil wearable doté d’IA ressemblant à une épingle, de taille similaire à un AirTag mais légèrement plus épais. L’appareil intègre des caméras, des microphones et un haut-parleur pour interagir avec des modèles d’IA. Il pourrait être lancé dès 2027 face à la concurrence d’OpenAI et Meta.

Apple a sélectionné les modèles d'IA Gemini de Google pour améliorer son assistant virtuel Siri dans une mise à jour à venir. Cette décision, annoncée dans un communiqué commun, marque un virage par rapport aux intégrations précédentes avec ChatGPT d'OpenAI. Ce partenariat pluriannuel vise à offrir des expériences d'IA plus performantes tout en respectant les normes de confidentialité d'Apple.

Rapporté par l'IA

Dans les bureaux de Google à New York, des prototypes de lunettes intelligentes ont démontré des fonctionnalités avancées comme la traduction en temps réel et l’intégration d’applications. Ces appareils, mêlant assistance IA et technologie wearable, sont prêts à être lancés en 2026 par de grandes entreprises. Cette tendance signale un virage vers des compagnons de réalité augmentée du quotidien.

Tesla a annoncé un investissement de 2 milliards de dollars dans la société d'IA xAI d'Elon Musk, dans le cadre de sa levée de fonds de série E, malgré des poursuites judiciaires en cours des actionnaires et un vote non contraignant rejeté. Cette décision vise à favoriser des collaborations en IA dans le cadre du Master Plan Part IV de Tesla. L'investissement, réalisé aux conditions du marché, devrait être finalisé au premier trimestre 2026.

Rapporté par l'IA

Chinese AI pioneer SenseTime is leveraging its computer vision roots to lead the next phase of AI, shifting towards multimodal systems and embodied intelligence in the physical world. Co-founder and chief scientist Lin Dahua stated that this approach mirrors Google's, starting with vision capabilities as the core and adding language to build true multimodal systems.

Meta prévoit de dévoiler la semaine prochaine deux nouveaux modèles de lunettes Ray-Ban dotées d'intelligence artificielle, spécialement conçus pour les utilisateurs nécessitant des verres correcteurs. Disponibles en formats rectangulaire et arrondi, ces montures seront commercialisées via les circuits traditionnels de l'optique. Selon Bloomberg, il s'agit de la première fois que Meta et Ray-Ban ciblent spécifiquement ce groupe avec de tels designs.

Rapporté par l'IA

Un sondage TechRadar indique que 96 % des répondants n’utilisent pas Apple Intelligence, suscitant des inquiétudes pour le PDG d’Apple, Tim Cook. Le sondage met en lumière des problèmes potentiels avec la fonctionnalité d’IA intégrée à Siri. Publié le 15 février 2026, les résultats suggèrent une réticence généralisée chez les utilisateurs.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser