Pesquisadores da Universidade de Purdue e do Georgia Institute of Technology propuseram uma nova arquitetura de computador para modelos de IA inspirada no cérebro humano. Essa abordagem visa resolver o problema da 'parede de memória' intensivo em energia nos sistemas atuais. O estudo, publicado na Frontiers in Science, destaca o potencial para IA mais eficiente em dispositivos do dia a dia.
O rápido crescimento da IA agravou os desafios no design de computadores, particularmente a separação entre processamento e memória em sistemas tradicionais. Um estudo publicado na segunda-feira na revista Frontiers in Science delineia uma solução inspirada no cérebro para esse problema. Liderado por Kaushik Roy, professor de engenharia de computadores da Universidade de Purdue, a pesquisa defende a reavaliação da arquitetura de IA para torná-la mais eficiente em energia.
Os computadores atuais seguem a arquitetura de von Neumann, desenvolvida em 1945, que mantém a memória e o processamento separados. Esse design cria um gargalo conhecido como 'parede de memória', termo cunhado por pesquisadores da Universidade da Virgínia nos anos 1990. À medida que os modelos de IA, especialmente processadores de linguagem, expandiram 5.000 vezes em tamanho nos últimos quatro anos, a disparidade entre velocidade de memória e poder de processamento tornou-se mais urgente. A IBM destacou recentemente esse problema em um relatório.
A solução proposta se inspira no funcionamento do cérebro, usando redes neurais de disparo (SNNs). Esses algoritmos, outrora criticados por serem lentos e imprecisos, melhoraram significativamente nos últimos anos. Os pesquisadores defendem 'compute-in-memory' (CIM), que integra o cálculo diretamente no sistema de memória. Como afirmado no resumo do artigo, "O CIM oferece uma solução promissora para o problema da parede de memória ao integrar capacidades de computação diretamente no sistema de memória."
Roy observou: "Modelos de processamento de linguagem cresceram 5.000 vezes em tamanho nos últimos quatro anos. Essa expansão alarmantemente rápida torna crucial que a IA seja o mais eficiente possível. Isso significa repensar fundamentalmente como os computadores são projetados."
A coautora Tanvi Sharma, pesquisadora da Purdue, acrescentou: "A IA é uma das tecnologias mais transformadoras do século XXI. No entanto, para levá-la para fora dos data centers e para o mundo real, precisamos reduzir drasticamente seu consumo de energia." Ela explicou que isso poderia habilitar IA em dispositivos compactos como ferramentas médicas, veículos e drones, com maior duração de bateria e menos transferência de dados.
Ao minimizar o desperdício de energia, a abordagem poderia tornar a IA mais acessível além dos grandes data centers, suportando aplicações mais amplas em ambientes com recursos limitados.