Les développeurs technologiques délocalisent l’intelligence artificielle des centres de données distants dans le nuage vers des appareils personnels comme les téléphones et ordinateurs portables pour obtenir un traitement plus rapide, une meilleure confidentialité et des coûts réduits. Cette IA sur appareil permet des tâches nécessitant des réponses rapides et garde les données sensibles locales. Les experts prédisent des avancées significatives dans les années à venir avec l’amélioration du matériel et des modèles.
La dépendance à l’IA basée sur le cloud, comme Claude d’Anthropic, implique l’envoi de prompts vers des centres de données distants, ce qui peut introduire des délais de plusieurs secondes—inacceptables pour des tâches urgentes comme alerter un utilisateur d’un obstacle sur son chemin. La confidentialité est une autre préoccupation, car les informations sensibles comme les données de santé ou financières transitent par de multiples systèmes non fiables. Pour résoudre ces problèmes, les entreprises traitent de plus en plus l’IA directement sur les appareils, éliminant le besoin de connexion internet et réduisant les coûts en évitant les paiements aux opérateurs de centres de données.
Ce changement est en cours depuis des années. Dès 2017, les iPhone utilisaient l’IA sur appareil pour la reconnaissance faciale via un moteur neuronal. Les implémentations modernes, comme Apple Intelligence d’Apple avec environ 3 milliards de paramètres, gèrent des tâches spécifiques telles que résumer des messages ou la reconnaissance visuelle à partir de captures d’écran. Les téléphones Pixel de Google emploient le modèle Gemini Nano sur la puce Tensor G5 pour alimenter des fonctionnalités comme Magic Cue, qui extrait des informations pertinentes des e-mails et messages sans recherche manuelle.
Les experts soulignent les défis et avantages. Mahadev Satyanarayanan, professeur à Carnegie Mellon, compare le calcul idéal sur appareil au cerveau humain, notant que si la nature l’a évolué sur un milliard d’années, les humains visent une efficacité similaire en cinq à dix ans grâce à du matériel avancé et des modèles spécialisés. Vinesh Sukumar, responsable de l’IA générative chez Qualcomm, pointe les différences système pour les appareils compacts comme les montres connectées, qui nécessitent souvent un déchargement vers le cloud—mais avec des garde-fous comme l’autorisation utilisateur et un traitement sécurisé pour protéger les données.
Private Cloud Compute d’Apple illustre les mesures de confidentialité : il traite les données déchargées uniquement sur les serveurs de l’entreprise, envoie un minimum d’informations et n’en stocke aucune. Pour les développeurs, l’IA sur appareil réduit les coûts récurrents ; Charlie Chapman de l’app Dark Noise l’utilise pour mixer des sons sans frais cloud, permettant une scalabilité sans risque financier.
À l’avenir, l’IA sur appareil excelle dans la classification d’objets en 100 millisecondes mais décharge encore pour la détection, la segmentation, la reconnaissance d’activités et le suivi. Satyanarayanan anticipe des progrès passionnants dans cinq ans, permettant des fonctionnalités comme des alertes de voyage via vision par ordinateur ou rappels contextuels sur des conversations.