Analoga chip kan påskynda AI-träning 1000 gånger

Forskare vid Peking University har utvecklat analoga datorchip som löser nyckelmatrixekvationer för AI-träning med hög noggrannhet och hastighet. Dessa chip lovar upp till 1000 gånger snabbare bearbetning och 100 gånger mindre energianvändning jämfört med digitala GPU:er. Innovationen adresserar den ökande energibehovet för AI i datacenter.

Analoga datorer, som bearbetar data med kontinuerliga storheter som elektriskt motstånd istället för binära siffror, har länge erbjudit fördelar i hastighet och effektivitet jämfört med digitala system men ofta på bekostnad av noggrannhet. Nu har Zhong Sun vid Peking University i Kina och hans team skapat ett par analoga chip för att tackla detta problem, med fokus på matrixekvationer som är essentiella för träning av AI-modeller, telekommunikation och vetenskapliga simuleringar.

Konfigurationen involverar två chip som arbetar i tandem. Den första ger en snabb lågprecisionslösning för matrixberäkningar med en felprocent på cirka 1 procent. Det andra chippet tillämpar sedan en iterativ förfiningalgoritm, som analyserar fel och förbättrar precisionen. Efter tre cykler sjunker felet till 0,0000001 procent, vilket matchar noggrannheten i standarddigitala beräkningar, enligt Sun.

För närvarande hanterar chippen 16 × 16-matrixer, som involverar 256 variabler, lämpliga för mindre problem. Skalning till de massiva matrixerna i moderna AI-modeller skulle kräva kretsar upp till en miljon × en miljon, noterar Sun. En nyckelbenefit är att lösning av större matrixer inte saktar ner analoga chip, till skillnad från digitala, som står inför exponentiella utmaningar. För en 32 × 32-matrix skulle teamets chip överträffa en Nvidia H100 GPU i genomströmning—data bearbetad per sekund.

Teoretiskt skulle ytterligare skalning kunna uppnå 1000 gånger genomströmningen hos digitala chip som GPU:er samtidigt som den använder 100 gånger mindre energi. Sun varnar dock för att verkliga tillämpningar kanske inte utnyttjar detta fullt ut, eftersom chippen är begränsade till matrixberäkningar. "Det är bara en jämförelse av hastighet, och för verkliga tillämpningar kan problemet vara annorlunda", säger Sun. "Vårt chip kan bara utföra matrixberäkningar. Om matrixberäkning utgör den mesta delen av beräkningsuppgiften representerar det en mycket betydande acceleration för problemet, men om inte, blir det en begränsad hastighetsökning."

Sun förväntar sig hybrida chip, som integrerar analoga kretsar i GPU:er för specifika uppgifter, även om detta ligger år framåt. James Millen vid King’s College London betonar potentialen: "Analoga datorer är skräddarsydda för specifika uppgifter och kan på det sättet vara otroligt snabba och effektiva. Detta arbete använder ett analogt beräkningschip för att påskynda en process som kallas matrisinvertering, vilket är en nyckelprocess i träning av vissa AI-modeller. Att göra detta mer effektivt skulle kunna hjälpa till att minska de enorma energibehoven från vår ständigt växande beroende av AI."

Forskningen publiceras i Nature Electronics (DOI: 10.1038/s41928-025-01477-0).

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj