Tutorial mendemonstrasikan menjalankan LLM di Arduino UNO Q

Tutorial baru menunjukkan cara menjalankan model bahasa besar dan model visi-bahasa secara lokal pada mikrokontroler Arduino UNO Q. Marc Pous dari Edge Impulse merinci langkah-langkah menggunakan alat yzma untuk mengaktifkan inferensi AI offline di lingkungan Linux papan tersebut. Pendekatan ini memungkinkan aplikasi yang berfokus pada privasi dalam edge computing.

Arduino UNO Q, yang diperkenalkan dalam beberapa bulan terakhir, telah memicu berbagai pendapat di antara pengguna. Beberapa menghargai peningkatan daya komputasi dan kemampuannya menjalankan Linux, sementara yang lain melihat lingkungan App Lab sebagai membingungkan dan membatasi. Tidak seperti papan Arduino sebelumnya, UNO Q memiliki koprosesor STM32H5, menjadikannya cocok untuk proyek kompleks di luar tugas dasar seperti kedipan LED.  nnDalam tutorial yang diterbitkan di Hackster.io, insinyur Edge Impulse Marc Pous mendemonstrasikan menjalankan model bahasa besar berkinerja tinggi (LLM) dan model visi-bahasa (VLM) langsung di UNO Q. Panduan ini memanfaatkan yzma, pembungkus Go untuk llama.cpp yang dikembangkan oleh Ron Evans, dikenal dengan proyek seperti Gobot dan TinyGo. Yzma menyederhanakan integrasi inferensi AI ke dalam aplikasi Go, menghindari ikatan CGo yang kompleks, dan beroperasi dalam sistem Linux berbasis Debian papan tersebut.  nnPengguna mengikuti langkah-langkah untuk menginstal Go di UNO Q, mengonfigurasi yzma, dan mengunduh model GGUF yang kompatibel dari Hugging Face. Untuk tugas berbasis teks, Pous menggunakan model SmolLM2-135M-Instruct, yang memiliki sekitar 135 juta parameter. Kuantisasi dan efisiensi llama.cpp memungkinkannya berjalan pada perangkat keras berbasis Arm, mendukung interaksi obrolan sepenuhnya offline.  nnTutorial diperluas ke kemampuan multimodal dengan model SmolVLM2-500M-Video-Instruct, yang memiliki sekitar 500 juta parameter. Model ini memproses gambar dan video pendek bersama teks. Dalam satu contoh, UNO Q menganalisis foto spidol di meja dan menghasilkan deskripsi rinci tanpa konektivitas cloud.  nnEksekusi AI lokal seperti ini mendukung sistem edge yang sadar privasi, menggabungkan kontrol mikrokontroler dengan AI untuk aplikasi dalam robotika dan rumah pintar. Pengembang dapat menafsirkan gambar, menangani perintah suara, atau memproses data sensor di perangkat, membuka kemungkinan untuk desain inovatif.

Artikel Terkait

Photo illustration of Google executives unveiling the Gemini 3 AI model and Antigravity IDE in a conference setting.
Gambar dihasilkan oleh AI

Google meluncurkan model AI Gemini 3 dan IDE Antigravity

Dilaporkan oleh AI Gambar dihasilkan oleh AI

Google telah merilis Gemini 3 Pro, model AI unggulan terbarunya, yang menekankan peningkatan penalaran, keluaran visual, dan kemampuan pengkodean. Perusahaan juga memperkenalkan Antigravity, lingkungan pengembangan terintegrasi yang berbasis AI pertama. Keduanya tersedia dalam pratinjau terbatas mulai hari ini.

Demonstrasi baru menunjukkan papan Arduino Uno Q, perangkat hibrida SoC/MCU dari Qualcomm, mampu menjalankan Linux bahkan game 3D meskipun sumber dayanya terbatas. Papan seharga $44 ini menggunakan lapisan terjemahan untuk mengemulasi game x86 pada arsitektur ARM-nya. Meskipun berfungsi, ia memerlukan perangkat keras tambahan dan pendinginan untuk kinerja berkelanjutan.

Dilaporkan oleh AI

Sebuah startup berbasis di Los Angeles, Quilter, telah menggunakan kecerdasan buatan untuk merancang komputer single-board Linux yang berfungsi hanya dalam seminggu, membutuhkan kurang dari 40 jam masukan manusia. Perangkat tersebut, dengan 843 komponen di dua papan sirkuit cetak, berhasil mem-boot Debian Linux pada percobaan pertama. Project Speedrun ini menunjukkan potensi AI untuk mempersingkat waktu pengembangan perangkat keras secara drastis.

Proyek open-source Ollama telah mengumumkan rilis versi 0.17-nya. Pembaruan ini menampilkan peningkatan onboarding OpenClaw. Berita ini dilaporkan oleh Phoronix.

Dilaporkan oleh AI

MYIR telah meluncurkan MYC-CZU3EG-V3, sebuah system-on-module yang ditingkatkan dengan AMD Zynq UltraScale+ ZU3EG MPSoC. Desain kompak ini mengintegrasikan prosesor Arm, inti waktu nyata, dan fabrik FPGA untuk aplikasi otomatisasi industri dan komputasi tepi. Modul ini menargetkan sektor seperti visi mesin, aerospace, dan telekomunikasi.

Google telah meluncurkan Project Genie, alat berbasis model AI Genie 3-nya yang memungkinkan pengguna menghasilkan dan menjelajahi lingkungan virtual interaktif dari perintah teks atau gambar. Hanya tersedia untuk pelanggan paket premium AI Ultra, sistem ini menandai akses publik pertama ke model dunia canggih ini di luar pengujian internal. Ia menawarkan mode seperti sketsa dunia dan remix, meskipun terbatas pada sesi pendek 60 detik.

Dilaporkan oleh AI

Pengembang AI Prancis Mistral AI telah meluncurkan dua model transkripsi baru yang dirancang untuk berjalan langsung di perangkat pengguna, memprioritaskan privasi dan kecepatan. Model-model tersebut, Voxtral Mini Transcribe 2 dan Voxtral Realtime, bertujuan menjaga percakapan sensitif di luar internet. Mereka memungkinkan transkripsi cepat dan akurat tanpa bergantung pada server cloud.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak