Chips analógicos poderiam acelerar o treinamento de IA 1000 vezes

Pesquisadores da Universidade de Pequim desenvolveram chips de computador analógicos que resolvem equações matriciais chave para o treinamento de IA com alta precisão e velocidade. Esses chips prometem até 1000 vezes mais processamento rápido e 100 vezes menos uso de energia em comparação com GPUs digitais. A inovação aborda as demandas energéticas crescentes da IA em centros de dados.

Computadores analógicos, que processam dados usando quantidades contínuas como resistência elétrica em vez de dígitos binários, oferecem há muito tempo vantagens em velocidade e eficiência sobre sistemas digitais, mas frequentemente às custas da precisão. Agora, Zhong Sun na Universidade de Pequim, na China, e sua equipe criaram um par de chips analógicos para enfrentar esse problema, focando em equações matriciais essenciais para o treinamento de modelos de IA, telecomunicações e simulações científicas.

A configuração envolve dois chips trabalhando em conjunto. O primeiro fornece uma solução rápida de baixa precisão para cálculos matriciais com uma taxa de erro de cerca de 1 por cento. O segundo chip então aplica um algoritmo de refinamento iterativo, analisando erros e melhorando a precisão. Após três ciclos, o erro cai para 0,0000001 por cento, igualando a precisão de computações digitais padrão, de acordo com Sun.

Atualmente, os chips lidam com matrizes de 16 por 16, envolvendo 256 variáveis, adequadas para problemas menores. Escalar para as matrizes massivas em modelos de IA modernos exigiria circuitos de até um milhão por um milhão, observa Sun. Um benefício chave é que resolver matrizes maiores não desacelera os chips analógicos, ao contrário dos digitais, que enfrentam desafios exponenciais. Para uma matriz de 32 por 32, o chip da equipe superaria uma GPU Nvidia H100 em throughput—os dados processados por segundo.

Teoricamente, um escalonamento adicional poderia alcançar 1000 vezes o throughput de chips digitais como GPUs enquanto usa 100 vezes menos energia. No entanto, Sun alerta que aplicações do mundo real podem não aproveitar isso completamente, pois os chips estão limitados a computações matriciais. "É apenas uma comparação de velocidade, e para aplicações reais, o problema pode ser diferente", diz Sun. "Nosso chip só pode fazer computações matriciais. Se a computação matricial ocupa a maior parte da tarefa de computação, representa uma aceleração muito significativa para o problema, mas se não, será um aumento de velocidade limitado."

Sun antecipa chips híbridos, integrando circuitos analógicos em GPUs para tarefas específicas, embora isso ainda esteja a anos de distância. James Millen no King’s College London destaca o potencial: "Computadores analógicos são adaptados a tarefas específicas, e dessa forma podem ser incrivelmente rápidos e eficientes. Este trabalho usa um chip de computação analógico para acelerar um processo chamado inversão de matriz, que é um processo chave no treinamento de certos modelos de IA. Fazer isso de forma mais eficiente poderia ajudar a reduzir as enormes demandas energéticas de nossa dependência crescente da IA."

A pesquisa aparece em Nature Electronics (DOI: 10.1038/s41928-025-01477-0).

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar