Canonical a présenté une feuille de route en matière d'IA pour Ubuntu, mettant l'accent sur l'inférence locale et les modèles à poids ouverts. Jon Seager, vice-président de l'ingénierie de l'entreprise, a détaillé ces projets dans une publication sur Ubuntu Discourse. Cette approche privilégie le traitement sur l'appareil plutôt que les services cloud.
Jon Seager, vice-président de l'ingénierie chez Canonical, a publié sur Ubuntu Discourse une feuille de route décrivant l'intégration prochaine de l'IA dans le système d'exploitation. L'initiative se concentre sur des fonctionnalités privilégiant le local, utilisant des modèles à poids ouverts et des outils open source, tout en distinguant les capacités d'IA implicites et explicites. L'IA implicite améliorera les fonctions existantes comme la conversion parole-texte et texte-parole grâce à l'inférence sur l'appareil, fonctionnant en arrière-plan sans interaction de l'utilisateur. L'IA explicite permettra des flux de travail automatisés, tels que le dépannage automatique, la création de documents et la maintenance de parc, en tant qu'options facultatives. Seager a souligné que les "inference snaps" constitueraient la méthode de déploiement, permettant des installations simples avec des modèles isolés (sandboxed) et optimisés pour le matériel, empêchant l'accès aux fichiers des utilisateurs. Cette configuration évite la dépendance aux API cloud, qui enregistrent généralement les requêtes et facturent à l'utilisation, positionnant les services cloud uniquement comme une solution de secours. La stratégie de Canonical contraste avec les approches privilégiant le cloud adoptées par d'autres entreprises technologiques, en gardant les fonctionnalités avancées facultatives et locales par défaut.