Tutoriel démontre l'exécution de LLMs sur Arduino UNO Q

Un nouveau tutoriel montre comment exécuter des modèles de langage large et des modèles vision-langage localement sur le microcontrôleur Arduino UNO Q. Marc Pous d'Edge Impulse a détaillé les étapes utilisant l'outil yzma pour activer l'inférence IA hors ligne dans l'environnement Linux de la carte. Cette approche permet des applications axées sur la confidentialité en edge computing.

L'Arduino UNO Q, introduit ces derniers mois, a suscité des opinions variées parmi les utilisateurs. Certains apprécient sa puissance de calcul accrue et sa capacité à exécuter Linux, tandis que d'autres considèrent l'environnement App Lab comme confus et restrictif. Contrairement aux cartes Arduino précédentes, l'UNO Q intègre un coprocesseur STM32H5, le rendant adapté à des projets complexes au-delà des tâches basiques comme le clignotement d'une LED.  nnDans un tutoriel publié sur Hackster.io, l'ingénieur d'Edge Impulse Marc Pous démontre l'exécution de modèles de langage large performants (LLMs) et de modèles vision-langage (VLMs) directement sur l'UNO Q. Le guide exploite yzma, un wrapper Go pour llama.cpp développé par Ron Evans, connu pour des projets comme Gobot et TinyGo. Yzma simplifie l'intégration de l'inférence IA dans des applications Go, évitant les liaisons CGo complexes, et fonctionne dans le système Linux basé sur Debian de la carte.  nnLes utilisateurs suivent des étapes pour installer Go sur l'UNO Q, configurer yzma et télécharger des modèles GGUF compatibles depuis Hugging Face. Pour les tâches basées sur le texte, Pous utilise le modèle SmolLM2-135M-Instruct, qui compte environ 135 millions de paramètres. La quantification et l'efficacité de llama.cpp lui permettent de s'exécuter sur le matériel basé sur Arm, supportant des interactions de chat entièrement hors ligne.  nnLe tutoriel s'étend aux capacités multimodales avec le modèle SmolVLM2-500M-Video-Instruct, comportant environ 500 millions de paramètres. Ce modèle traite des images et des vidéos courtes en plus du texte. Dans un exemple, l'UNO Q analyse une photo de marqueurs sur un bureau et produit une description détaillée sans connexion cloud.  nnUne telle exécution IA locale soutient des systèmes edge soucieux de la confidentialité, combinant le contrôle du microcontrôleur avec l'IA pour des applications en robotique et maisons intelligentes. Les développeurs peuvent interpréter des images, gérer des commandes vocales ou traiter des données de capteurs sur l'appareil, ouvrant des possibilités pour des conceptions innovantes.

Articles connexes

Photo illustration of Google executives unveiling the Gemini 3 AI model and Antigravity IDE in a conference setting.
Image générée par IA

Google dévoile le modèle d'IA Gemini 3 et l'IDE Antigravity

Rapporté par l'IA Image générée par IA

Google a lancé Gemini 3 Pro, son dernier modèle phare d'IA, en mettant l'accent sur un raisonnement amélioré, des sorties visuelles et des capacités de codage. L'entreprise a également introduit Antigravity, un environnement de développement intégré axé sur l'IA. Les deux sont disponibles en aperçu limité à partir d'aujourd'hui.

Une nouvelle démonstration montre la carte Arduino Uno Q, un appareil hybride SoC/MCU de Qualcomm, capable d'exécuter Linux et même des jeux 3D malgré ses ressources limitées. La carte, au prix de 44 $, utilise des couches de traduction pour émuler des jeux x86 sur son architecture ARM. Bien que fonctionnelle, elle nécessite du matériel supplémentaire et un refroidissement pour un rendement soutenu.

Rapporté par l'IA

Une startup basée à Los Angeles, Quilter, a utilisé l'intelligence artificielle pour concevoir un ordinateur monocarte Linux fonctionnel en seulement une semaine, nécessitant moins de 40 heures d'intervention humaine. L'appareil, doté de 843 composants sur deux cartes de circuits imprimés, a démarré avec succès Debian Linux dès la première mise sous tension. Ce Project Speedrun démontre le potentiel de l'IA pour raccourcir drastiquement les délais de développement matériel.

Le projet open-source Ollama a annoncé la sortie de sa version 0.17. Cette mise à jour comprend des améliorations pour l'onboarding OpenClaw. L'information a été rapportée par Phoronix.

Rapporté par l'IA

MYIR a lancé le MYC-CZU3EG-V3, un system-on-module amélioré intégrant le MPSoC AMD Zynq UltraScale+ ZU3EG. Ce design compact intègre des processeurs Arm, des cœurs temps réel et un tissu FPGA pour des applications en automatisation industrielle et en calcul en périphérie. Le module cible des secteurs comme la vision machine, l'aérospatiale et les télécommunications.

Google a lancé Project Genie, un outil basé sur son modèle d'IA Genie 3 qui permet aux utilisateurs de générer et d'explorer des environnements virtuels interactifs à partir de prompts textuels ou d'images. Disponible uniquement pour les abonnés de son plan premium AI Ultra, le système marque le premier accès public à ce modèle de monde avancé en dehors des tests internes. Il propose des modes comme l'esquisse de mondes et le remix, bien que limité à des sessions courtes de 60 secondes.

Rapporté par l'IA

Le développeur français d'IA Mistral AI a lancé deux nouveaux modèles de transcription conçus pour fonctionner directement sur les appareils des utilisateurs, en priorisant la confidentialité et la vitesse. Les modèles, Voxtral Mini Transcribe 2 et Voxtral Realtime, visent à garder les conversations sensibles hors d'Internet. Ils permettent une transcription rapide et précise sans dépendre de serveurs cloud.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser