برنامج تعليمي جديد يظهر كيفية تشغيل نماذج اللغة الكبيرة ونماذج الرؤية-اللغة محليًا على متحكم Arduino UNO Q. حدد مارك بوس من Edge Impulse الخطوات باستخدام أداة yzma لتمكين الاستدلال الذكاء الاصطناعي دون اتصال في بيئة لينكس على اللوحة. يسمح هذا النهج بتطبيقات تركز على الخصوصية في الحوسبة الحافية.
أثار Arduino UNO Q، الذي تم تقديمه في الأشهر الأخيرة، آراء متنوعة بين المستخدمين. يقدر البعض قوته الحوسبية المتزايدة وقدرته على تشغيل لينكس، بينما يرى آخرون بيئة App Lab مربكة ومقيدة. بخلاف لوحات Arduino السابقة، يتميز UNO Q بمعالج مشارك STM32H5، مما يجعله مناسبًا للمشاريع المعقدة التي تتجاوز المهام الأساسية مثل وميض LED. nnفي برنامج تعليمي منشور على Hackster.io، يظهر المهندس مارك بوس من Edge Impulse تشغيل نماذج اللغة الكبيرة عالية الأداء (LLMs) ونماذج الرؤية-اللغة (VLMs) مباشرة على UNO Q. يستفيد الدليل من yzma، وهو غلاف Go لـllama.cpp طوره رون إيفانز، المعروف بمشاريع مثل Gobot وTinyGo. يبسط yzma دمج الاستدلال الذكاء الاصطناعي في تطبيقات Go، متجنبًا الروابط المعقدة CGo، ويعمل داخل نظام لينكس المبني على Debian للوحة. nnيتبع المستخدمون خطوات لتثبيت Go على UNO Q، وتكوين yzma، وتنزيل نماذج GGUF المتوافقة من Hugging Face. للمهام النصية، يستخدم بوس نموذج SmolLM2-135M-Instruct، الذي يحتوي على حوالي 135 مليون معلمة. تمكن الكمية وكفاءة llama.cpp من تشغيله على الأجهزة المبنية على Arm، مدعومًا تفاعلات الدردشة كليًا دون اتصال. nnيمتد البرنامج التعليمي إلى القدرات متعددة الوسائط مع نموذج SmolVLM2-500M-Video-Instruct، الذي يحتوي على حوالي 500 مليون معلمة. يعالج هذا النموذج الصور والفيديوهات القصيرة إلى جانب النص. في مثال واحد، يحلل UNO Q صورة لعلامات على مكتب وينتج وصفًا مفصلاً دون اتصال بالسحابة. nnيدعم مثل هذا التنفيذ المحلي للذكاء الاصطناعي أنظمة الحافة الواعية بالخصوصية، مجمعًا تحكم المتحكم الدقيق مع الذكاء الاصطناعي لتطبيقات في الروبوتات والمنازل الذكية. يمكن للمطورين تفسير الصور، أو التعامل مع أوامر الصوت، أو معالجة بيانات المستشعرات على الجهاز، مما يفتح إمكانيات لتصاميم مبتكرة.