Studie föreslår hjärninspirerade algoritmer för att minska AI:s energianvändning

Forskare från Purdue University och Georgia Institute of Technology har föreslagit en ny datorarkitektur för AI-modeller inspirerad av den mänskliga hjärnan. Detta tillvägagångssätt syftar till att tackla det energikrävande 'memory wall'-problemet i nuvarande system. Studien, publicerad i Frontiers in Science, belyser potentialen för mer effektiv AI i vardagliga enheter.

AI:s snabba tillväxt har förvärrat utmaningarna inom dator-design, särskilt separationen av bearbetning och minne i traditionella system. En studie publicerad på måndagen i tidskriften Frontiers in Science beskriver en hjärninspirerad lösning på detta problem. Levd av Kaushik Roy, professor i datorteknik vid Purdue University, argumenterar forskningen för att tänka om AI-arkitekturen för att göra den mer energieffektiv.

Dagens datorer följer von Neumann-arkitekturen, utvecklad 1945, som håller minne och bearbetning åtskilda. Denna design skapar en flaskhals känd som 'memory wall', ett begrepp myntat av forskare vid University of Virginia på 1990-talet. När AI-modeller, särskilt språkprocessorer, har vuxit 5 000 gånger i storlek under de senaste fyra åren har skillnaden mellan minneshastighet och bearbetningskraft blivit mer tryckande. IBM betonade nyligen detta problem i en rapport.

Den föreslagna lösningen hämtar inspiration från hur hjärnan fungerar, med spiking neurala nätverk (SNN). Dessa algoritmer, som tidigare kritiserats för att vara långsamma och oprecisa, har förbättrats avsevärt på senare år. Forskarna förespråkar 'compute-in-memory' (CIM), som integrerar beräkning direkt i minnessystemet. Som anges i artikelns sammanfattning: «CIM erbjuder en lovande lösning på memory wall-problemet genom att integrera beräkningskapacitet direkt i minnessystemet.»

Roy noterade: «Språkprocessmodeller har vuxit 5 000 gånger i storlek under de senaste fyra åren. Denna alarmerande snabba expansion gör det avgörande att AI är så effektiv som möjligt. Det innebär att fundamentalt tänka om hur datorer utformas.»

Medförfattaren Tanvi Sharma, forskare vid Purdue, tillade: «AI är en av de mest transformativa teknikerna i 2000-talet. Men för att flytta den från datacenter till verkligheten behöver vi dramatiskt minska dess energianvändning.» Hon förklarade att detta kunde möjliggöra AI i kompakta enheter som medicinska verktyg, fordon och drönare, med längre batteritid och mindre datöverföring.

Genom att minimera energispill kan tillvägagångssättet göra AI mer tillgänglig bortom stora datacenter och stödja bredare tillämpningar i resursbegränsade miljöer.

Relaterade artiklar

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Bild genererad av AI

Princetonstudie avslöjar hjärnans återanvändbara ”kognitiva Legos” för flexibelt lärande

Rapporterad av AI Bild genererad av AI Faktagranskad

Neurovetenskapsforskare vid Princeton University rapporterar att hjärnan uppnår flexibelt lärande genom att återanvända modulära kognitiva komponenter över uppgifter. I experiment med rhesusapor fann forskarna att prefrontala cortex monterar dessa återanvändbara ”kognitiva Legos” för att snabbt anpassa beteenden. Resultaten, publicerade 26 november i Nature, understryker skillnader från dagens AI-system och kan så småningom informera behandlingar för störningar som försämrar flexibelt tänkande.

Teknikutvecklare flyttar artificiell intelligens från avlägsna molndatacenter till personliga enheter som telefoner och bärbara datorer för att uppnå snabbare bearbetning, bättre integritet och lägre kostnader. Denna enhetsbaserade AI möjliggör uppgifter som kräver snabba svar och håller känslig data lokal. Experter förutspår betydande framsteg de kommande åren i takt med att hårdvara och modeller förbättras.

Rapporterad av AI

Forskare står på randen till att simulera en mänsklig hjärna med världens mest kraftfulla superdatorer i syfte att låsa upp hjärnans funktionshemligheter. Projektet leds av forskare vid Tysklands Jülich Research Centre och utnyttjar superdatorn JUPITER för att modellera 20 miljarder neuroner. Detta genombrott kan möjliggöra test av teorier om minne och läkemedelseffekter som mindre modeller inte kan uppnå.

AI-kodningsagenter från företag som OpenAI, Anthropic och Google möjliggör utökat arbete på mjukvaruprojekt, inklusive att skriva appar och fixa buggar under mänsklig översyn. Dessa verktyg bygger på stora språkmodeller men står inför utmaningar som begränsad kontextbehandling och höga beräkningskostnader. Att förstå deras mekanik hjälper utvecklare att besluta när de ska användas effektivt.

Rapporterad av AI

China's State Grid Corporation plans to invest 4 trillion yuan (US$574 billion) by 2030 to build a more efficient power system integrating renewables, aiming to secure an edge in the US-China tech rivalry. Experts note that electricity is China's undeniable advantage in the AI race.

Amatörmatematiker har chockat proffs genom att använda AI-verktyg som ChatGPT för att ta sig an långvariga problem ställda av Paul Erdős. Medan de flesta lösningar återupptäcker befintliga resultat framhäver en ny bevisning AI:s potential att omforma matematisk forskning. Experter ser detta som ett tidigt steg mot bredare tillämpningar inom området.

Rapporterad av AI

Hangzhou-based startup DeepSeek has not announced plans for its next major AI model release, but its technical papers suggest potential advances. The papers highlight how AI infrastructure innovations could drive efficiency and scale up model performance.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj