Tutorial demonstra execução de LLMs no Arduino UNO Q

Um novo tutorial mostra como executar modelos de linguagem grandes e modelos de visão-linguagem localmente no microcontrolador Arduino UNO Q. Marc Pous da Edge Impulse delineou passos usando a ferramenta yzma para habilitar inferência de IA offline no ambiente Linux da placa. Esta abordagem permite aplicações focadas em privacidade em computação de borda.

O Arduino UNO Q, introduzido nos últimos meses, gerou opiniões variadas entre os usuários. Alguns apreciam seu poder computacional aumentado e capacidade de executar Linux, enquanto outros veem o ambiente App Lab como confuso e restritivo. Diferente das placas Arduino anteriores, o UNO Q possui um coprocessador STM32H5, tornando-o adequado para projetos complexos além de tarefas básicas como piscar um LED.  nnEm um tutorial publicado no Hackster.io, o engenheiro da Edge Impulse Marc Pous demonstra a execução de modelos de linguagem grandes de alto desempenho (LLMs) e modelos de visão-linguagem (VLMs) diretamente no UNO Q. O guia utiliza yzma, um wrapper Go para llama.cpp desenvolvido por Ron Evans, conhecido por projetos como Gobot e TinyGo. O yzma simplifica a integração de inferência de IA em aplicações Go, evitando ligações CGo complexas, e opera no sistema Linux baseado em Debian da placa.  nnOs usuários seguem passos para instalar Go no UNO Q, configurar yzma e baixar modelos GGUF compatíveis do Hugging Face. Para tarefas baseadas em texto, Pous usa o modelo SmolLM2-135M-Instruct, que tem cerca de 135 milhões de parâmetros. A quantização e a eficiência do llama.cpp permitem que ele rode em hardware baseado em Arm, suportando interações de chat totalmente offline.  nnO tutorial se estende a capacidades multimodais com o modelo SmolVLM2-500M-Video-Instruct, com cerca de 500 milhões de parâmetros. Este modelo processa imagens e vídeos curtos junto com texto. Em um exemplo, o UNO Q analisa uma foto de marcadores em uma mesa e produz uma descrição detalhada sem conectividade em nuvem.  nnTal execução local de IA suporta sistemas de borda conscientes da privacidade, combinando controle de microcontrolador com IA para aplicações em robótica e casas inteligentes. Desenvolvedores podem interpretar imagens, lidar com comandos de voz ou processar dados de sensores no dispositivo, abrindo possibilidades para designs inovadores.

Artigos relacionados

Photo illustration of Google executives unveiling the Gemini 3 AI model and Antigravity IDE in a conference setting.
Imagem gerada por IA

Google apresenta modelo de IA Gemini 3 e IDE Antigravity

Reportado por IA Imagem gerada por IA

O Google lançou o Gemini 3 Pro, seu mais recente modelo principal de IA, enfatizando raciocínio aprimorado, saídas visuais e capacidades de codificação. A empresa também introduziu o Antigravity, um ambiente de desenvolvimento integrado com foco em IA. Ambos estão disponíveis em visualização limitada a partir de hoje.

Uma nova demonstração mostra a placa Arduino Uno Q, um dispositivo híbrido SoC/MCU da Qualcomm, capaz de executar Linux e até jogos 3D apesar de seus recursos limitados. A placa, com preço de US$ 44, usa camadas de tradução para emular jogos x86 em sua arquitetura ARM. Embora funcional, requer hardware adicional e resfriamento para desempenho sustentado.

Reportado por IA

Uma startup sediada em Los Angeles, Quilter, usou inteligência artificial para projetar um computador de placa única funcional com Linux em apenas uma semana, exigindo menos de 40 horas de entrada humana. O dispositivo, com 843 componentes em duas placas de circuito impresso, inicializou com sucesso o Debian Linux na primeira tentativa. Este Project Speedrun demonstra o potencial da IA para encurtar drasticamente os prazos de desenvolvimento de hardware.

O projeto open-source Ollama anunciou o lançamento da sua versão 0.17. Esta atualização apresenta melhorias no onboarding do OpenClaw. A notícia foi reportada pelo Phoronix.

Reportado por IA

A MYIR lançou o MYC-CZU3EG-V3, um system-on-module aprimorado com o MPSoC AMD Zynq UltraScale+ ZU3EG. Este design compacto integra processadores Arm, núcleos em tempo real e tecido FPGA para aplicações em automação industrial e computação de borda. O módulo visa setores como visão machine, aeroespacial e telecomunicações.

Google lançou o Project Genie, uma ferramenta baseada no seu modelo de IA Genie 3 que permite aos utilizadores gerar e explorar ambientes virtuais interativos a partir de prompts de texto ou imagens. Disponível apenas para subscritores do seu plano premium AI Ultra, o sistema marca o primeiro acesso público a este modelo de mundo avançado fora dos testes internos. Oferece modos como esboço de mundos e remix, embora limitado a sessões curtas de 60 segundos.

Reportado por IA

A desenvolvedora francesa de IA Mistral AI lançou dois novos modelos de transcrição projetados para rodar diretamente nos dispositivos dos usuários, priorizando privacidade e velocidade. Os modelos, Voxtral Mini Transcribe 2 e Voxtral Realtime, visam manter conversas sensíveis fora da internet. Eles permitem transcrição rápida e precisa sem depender de servidores em nuvem.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar