Forskare från Purdue University och Georgia Institute of Technology har föreslagit en ny datorarkitektur för AI-modeller inspirerad av den mänskliga hjärnan. Detta tillvägagångssätt syftar till att tackla det energikrävande 'memory wall'-problemet i nuvarande system. Studien, publicerad i Frontiers in Science, belyser potentialen för mer effektiv AI i vardagliga enheter.
AI:s snabba tillväxt har förvärrat utmaningarna inom dator-design, särskilt separationen av bearbetning och minne i traditionella system. En studie publicerad på måndagen i tidskriften Frontiers in Science beskriver en hjärninspirerad lösning på detta problem. Levd av Kaushik Roy, professor i datorteknik vid Purdue University, argumenterar forskningen för att tänka om AI-arkitekturen för att göra den mer energieffektiv.
Dagens datorer följer von Neumann-arkitekturen, utvecklad 1945, som håller minne och bearbetning åtskilda. Denna design skapar en flaskhals känd som 'memory wall', ett begrepp myntat av forskare vid University of Virginia på 1990-talet. När AI-modeller, särskilt språkprocessorer, har vuxit 5 000 gånger i storlek under de senaste fyra åren har skillnaden mellan minneshastighet och bearbetningskraft blivit mer tryckande. IBM betonade nyligen detta problem i en rapport.
Den föreslagna lösningen hämtar inspiration från hur hjärnan fungerar, med spiking neurala nätverk (SNN). Dessa algoritmer, som tidigare kritiserats för att vara långsamma och oprecisa, har förbättrats avsevärt på senare år. Forskarna förespråkar 'compute-in-memory' (CIM), som integrerar beräkning direkt i minnessystemet. Som anges i artikelns sammanfattning: «CIM erbjuder en lovande lösning på memory wall-problemet genom att integrera beräkningskapacitet direkt i minnessystemet.»
Roy noterade: «Språkprocessmodeller har vuxit 5 000 gånger i storlek under de senaste fyra åren. Denna alarmerande snabba expansion gör det avgörande att AI är så effektiv som möjligt. Det innebär att fundamentalt tänka om hur datorer utformas.»
Medförfattaren Tanvi Sharma, forskare vid Purdue, tillade: «AI är en av de mest transformativa teknikerna i 2000-talet. Men för att flytta den från datacenter till verkligheten behöver vi dramatiskt minska dess energianvändning.» Hon förklarade att detta kunde möjliggöra AI i kompakta enheter som medicinska verktyg, fordon och drönare, med längre batteritid och mindre datöverföring.
Genom att minimera energispill kan tillvägagångssättet göra AI mer tillgänglig bortom stora datacenter och stödja bredare tillämpningar i resursbegränsade miljöer.