Tutorial visar körning av LLMs på Arduino UNO Q

En ny tutorial visar hur man kör stora språkmodeller och syn-språkmodeller lokalt på mikrokontrollern Arduino UNO Q. Marc Pous från Edge Impulse har beskrivit steg med verktyget yzma för att aktivera offline AI-inferens i kortets Linux-miljö. Detta tillvägagångssätt möjliggör integritetsfokuserade applikationer i edge computing.

Arduino UNO Q, som introducerades för några månader sedan, har väckt blandade åsikter bland användare. Vissa uppskattar den ökade beräkningskraften och förmågan att köra Linux, medan andra ser App Lab-miljön som förvirrande och begränsande. Till skillnad från tidigare Arduino-kort har UNO Q en STM32H5-koprocerssor, vilket gör det lämpligt för komplexa projekt utöver grundläggande uppgifter som att blinka en LED.  nnI en tutorial publicerad på Hackster.io demonstrerar Edge Impulse-ingenjören Marc Pous körning av högpresterande stora språkmodeller (LLMs) och syn-språkmodeller (VLMs) direkt på UNO Q. Guiden utnyttjar yzma, en Go-wrapper för llama.cpp utvecklad av Ron Evans, känd för projekt som Gobot och TinyGo. Yzma förenklar integration av AI-inferens i Go-applikationer, undviker komplexa CGo-bindningar, och fungerar inom kortets Debian-baserade Linux-system.  nnAnvändare följer steg för att installera Go på UNO Q, konfigurera yzma och ladda ner kompatibla GGUF-modeller från Hugging Face. För textbaserade uppgifter använder Pous modellen SmolLM2-135M-Instruct, som har cirka 135 miljoner parametrar. Kvantisering och llama.cpp:s effektivitet gör att den kan köras på Arm-baserad hårdvara, med stöd för helt offline chattinteraktioner.  nnTutorialen utökas till multimodala funktioner med modellen SmolVLM2-500M-Video-Instruct, som har cirka 500 miljoner parametrar. Denna modell bearbetar bilder och korta videor tillsammans med text. I ett exempel analyserar UNO Q ett foto av markörer på ett skrivbord och producerar en detaljerad beskrivning utan molnanslutning.  nnEn sådan lokal AI-körning stödjer integritetsmedvetna edge-system, som kombinerar mikrokontrollerstyrning med AI för applikationer i robotik och smarta hem. Utvecklare kan tolka bilder, hantera röstkommandon eller bearbeta sensordata på enheten, vilket öppnar dörrar för innovativa designer.

Relaterade artiklar

Photo illustration of Google executives unveiling the Gemini 3 AI model and Antigravity IDE in a conference setting.
Bild genererad av AI

Google presenterar Gemini 3 AI-modell och Antigravity IDE

Rapporterad av AI Bild genererad av AI

Google har släppt Gemini 3 Pro, sin senaste flaggskeppsmodell för AI, med tonvikt på förbättrat resonemang, visuella utdata och kodningsförmågor. Företaget har också introducerat Antigravity, en AI-först integrerad utvecklingsmiljö. Båda är tillgängliga i begränsad förhandsvisning från och med idag.

En ny demonstration visar Arduino Uno Q-kortet, en hybrid SoC/MCU-enhet från Qualcomm, som kan köra Linux och till och med 3D-spel trots sina begränsade resurser. Kortet, som kostar 44 dollar, använder översättningslager för att emulera x86-spel på sin ARM-arkitektur. Det fungerar, men kräver extra hårdvara och kylning för hållbar prestanda.

Rapporterad av AI

Ett startupföretag baserat i Los Angeles, Quilter, har använt artificiell intelligens för att designa en fungerande Linux-enkortsdator på bara en vecka, med mindre än 40 timmars mänsklig inblandning. Enheten, med 843 komponenter över två tryckta kretskort, startade framgångsrikt Debian Linux vid första strömupptagningen. Detta Project Speedrun visar AI:s potential att kraftigt förkorta hårdvaruutvecklingscykler.

Det open source-projektet Ollama har meddelat lanseringen av version 0.17. Denna uppdatering innehåller förbättringar för OpenClaw-onboarding. Nyheten rapporterades av Phoronix.

Rapporterad av AI

MYIR har lanserat MYC-CZU3EG-V3, en förbättrad system-on-module med AMD Zynq UltraScale+ ZU3EG MPSoC. Denna kompakta design integrerar Arm-processorer, realtidskärnor och FPGA-väv för applikationer inom industriell automation och kantberäkning. Modulen riktar sig till sektorer som maskinseende, rymd och telekommunikation.

Google har lanserat Project Genie, ett verktyg baserat på dess Genie 3 AI-modell som låter användare generera och utforska interaktiva virtuella miljöer från textprompts eller bilder. Endast tillgängligt för prenumeranter på dess premiumplan AI Ultra, markerar systemet den första offentliga åtkomsten till denna avancerade världsmodell utanför interna tester. Det erbjuder lägen som världsskissning och remix, men begränsat till korta 60-sekunderssessioner.

Rapporterad av AI

Den franska AI-utvecklaren Mistral AI har släppt två nya transkriptionsmodeller utformade för att köras direkt på användarens enheter, med fokus på integritet och hastighet. Modellerna, Voxtral Mini Transcribe 2 och Voxtral Realtime, syftar till att hålla känsliga samtal borta från internet. De möjliggör snabb och noggrann transkription utan att förlita sig på molnservrar.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj