Tutorial demuestra ejecución de LLMs en Arduino UNO Q

Un nuevo tutorial muestra cómo ejecutar modelos de lenguaje grandes y modelos de visión-lenguaje de forma local en el microcontrolador Arduino UNO Q. Marc Pous de Edge Impulse ha detallado pasos utilizando la herramienta yzma para habilitar inferencia de IA sin conexión en el entorno Linux de la placa. Este enfoque permite aplicaciones centradas en la privacidad en computación en el borde.

El Arduino UNO Q, introducido en los últimos meses, ha generado opiniones variadas entre los usuarios. Algunos aprecian su mayor potencia computacional y capacidad para ejecutar Linux, mientras que otros ven el entorno App Lab como confuso y restrictivo. A diferencia de las placas Arduino anteriores, el UNO Q cuenta con un coprocesador STM32H5, lo que lo hace adecuado para proyectos complejos más allá de tareas básicas como parpadear un LED.  nnEn un tutorial publicado en Hackster.io, el ingeniero de Edge Impulse Marc Pous demuestra la ejecución de modelos de lenguaje grandes (LLMs) de alto rendimiento y modelos de visión-lenguaje (VLMs) directamente en el UNO Q. La guía aprovecha yzma, un envoltorio en Go para llama.cpp desarrollado por Ron Evans, conocido por proyectos como Gobot y TinyGo. Yzma simplifica la integración de inferencia de IA en aplicaciones Go, evitando enlaces complejos de CGo, y opera dentro del sistema Linux basado en Debian de la placa.  nnLos usuarios siguen pasos para instalar Go en el UNO Q, configurar yzma y descargar modelos GGUF compatibles de Hugging Face. Para tareas basadas en texto, Pous utiliza el modelo SmolLM2-135M-Instruct, que tiene alrededor de 135 millones de parámetros. La cuantización y la eficiencia de llama.cpp permiten que se ejecute en el hardware basado en Arm, soportando interacciones de chat completamente sin conexión.  nnEl tutorial se extiende a capacidades multimodales con el modelo SmolVLM2-500M-Video-Instruct, que cuenta con alrededor de 500 millones de parámetros. Este modelo procesa imágenes y videos cortos junto con texto. En un ejemplo, el UNO Q analiza una foto de marcadores en un escritorio y produce una descripción detallada sin conexión a la nube.  nnEsta ejecución local de IA soporta sistemas en el borde conscientes de la privacidad, combinando control de microcontrolador con IA para aplicaciones en robótica y hogares inteligentes. Los desarrolladores pueden interpretar imágenes, manejar comandos de voz o procesar datos de sensores en el dispositivo, abriendo posibilidades para diseños innovadores.

Artículos relacionados

Photo illustration of Google executives unveiling the Gemini 3 AI model and Antigravity IDE in a conference setting.
Imagen generada por IA

Google presenta el modelo de IA Gemini 3 y el IDE Antigravity

Reportado por IA Imagen generada por IA

Google ha lanzado Gemini 3 Pro, su último modelo insignia de IA, que enfatiza un razonamiento mejorado, salidas visuales y capacidades de codificación. La compañía también introdujo Antigravity, un entorno de desarrollo integrado centrado en IA. Ambos están disponibles en vista previa limitada a partir de hoy.

Una nueva demostración muestra la placa Arduino Uno Q, un dispositivo híbrido SoC/MCU de Qualcomm, capaz de ejecutar Linux e incluso juegos 3D a pesar de sus recursos limitados. La placa, con un precio de $44, utiliza capas de traducción para emular juegos x86 en su arquitectura ARM. Aunque funcional, requiere hardware adicional y refrigeración para un rendimiento sostenido.

Reportado por IA

Una startup con sede en Los Ángeles, Quilter, ha utilizado inteligencia artificial para diseñar un ordenador monoplaca funcional con Linux en solo una semana, requiriendo menos de 40 horas de intervención humana. El dispositivo, con 843 componentes en dos placas de circuito impreso, arrancó con éxito Debian Linux en su primera puesta en marcha. Este Project Speedrun demuestra el potencial de la IA para reducir drásticamente los plazos de desarrollo de hardware.

El proyecto de código abierto Ollama ha anunciado el lanzamiento de su versión 0.17. Esta actualización incluye mejoras en la incorporación de OpenClaw. La noticia fue reportada por Phoronix.

Reportado por IA

MYIR ha lanzado el MYC-CZU3EG-V3, un system-on-module mejorado con el MPSoC AMD Zynq UltraScale+ ZU3EG. Este diseño compacto integra procesadores Arm, núcleos en tiempo real y tejido FPGA para aplicaciones en automatización industrial y computación en el borde. El módulo va dirigido a sectores como visión por computador, aeroespacial y telecomunicaciones.

Google ha lanzado Project Genie, una herramienta basada en su modelo de IA Genie 3 que permite a los usuarios generar y explorar entornos virtuales interactivos a partir de indicaciones de texto o imágenes. Disponible solo para suscriptores de su plan premium AI Ultra, el sistema marca el primer acceso público a este modelo de mundo avanzado fuera de las pruebas internas. Ofrece modos como boceto de mundos y remix, aunque limitado a sesiones cortas de 60 segundos.

Reportado por IA

El desarrollador francés de IA Mistral AI ha lanzado dos nuevos modelos de transcripción diseñados para ejecutarse directamente en los dispositivos de los usuarios, priorizando la privacidad y la velocidad. Los modelos, Voxtral Mini Transcribe 2 y Voxtral Realtime, buscan mantener las conversaciones sensibles fuera de internet. Permiten una transcripción rápida y precisa sin depender de servidores en la nube.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar