Studie föreslår hjärninspirerade algoritmer för att minska AI:s energianvändning

Forskare från Purdue University och Georgia Institute of Technology har föreslagit en ny datorarkitektur för AI-modeller inspirerad av den mänskliga hjärnan. Detta tillvägagångssätt syftar till att tackla det energikrävande 'memory wall'-problemet i nuvarande system. Studien, publicerad i Frontiers in Science, belyser potentialen för mer effektiv AI i vardagliga enheter.

AI:s snabba tillväxt har förvärrat utmaningarna inom dator-design, särskilt separationen av bearbetning och minne i traditionella system. En studie publicerad på måndagen i tidskriften Frontiers in Science beskriver en hjärninspirerad lösning på detta problem. Levd av Kaushik Roy, professor i datorteknik vid Purdue University, argumenterar forskningen för att tänka om AI-arkitekturen för att göra den mer energieffektiv.

Dagens datorer följer von Neumann-arkitekturen, utvecklad 1945, som håller minne och bearbetning åtskilda. Denna design skapar en flaskhals känd som 'memory wall', ett begrepp myntat av forskare vid University of Virginia på 1990-talet. När AI-modeller, särskilt språkprocessorer, har vuxit 5 000 gånger i storlek under de senaste fyra åren har skillnaden mellan minneshastighet och bearbetningskraft blivit mer tryckande. IBM betonade nyligen detta problem i en rapport.

Den föreslagna lösningen hämtar inspiration från hur hjärnan fungerar, med spiking neurala nätverk (SNN). Dessa algoritmer, som tidigare kritiserats för att vara långsamma och oprecisa, har förbättrats avsevärt på senare år. Forskarna förespråkar 'compute-in-memory' (CIM), som integrerar beräkning direkt i minnessystemet. Som anges i artikelns sammanfattning: «CIM erbjuder en lovande lösning på memory wall-problemet genom att integrera beräkningskapacitet direkt i minnessystemet.»

Roy noterade: «Språkprocessmodeller har vuxit 5 000 gånger i storlek under de senaste fyra åren. Denna alarmerande snabba expansion gör det avgörande att AI är så effektiv som möjligt. Det innebär att fundamentalt tänka om hur datorer utformas.»

Medförfattaren Tanvi Sharma, forskare vid Purdue, tillade: «AI är en av de mest transformativa teknikerna i 2000-talet. Men för att flytta den från datacenter till verkligheten behöver vi dramatiskt minska dess energianvändning.» Hon förklarade att detta kunde möjliggöra AI i kompakta enheter som medicinska verktyg, fordon och drönare, med längre batteritid och mindre datöverföring.

Genom att minimera energispill kan tillvägagångssättet göra AI mer tillgänglig bortom stora datacenter och stödja bredare tillämpningar i resursbegränsade miljöer.

Relaterade artiklar

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Bild genererad av AI

Princetonstudie avslöjar hjärnans återanvändbara ”kognitiva Legos” för flexibelt lärande

Rapporterad av AI Bild genererad av AI Faktagranskad

Neurovetenskapsforskare vid Princeton University rapporterar att hjärnan uppnår flexibelt lärande genom att återanvända modulära kognitiva komponenter över uppgifter. I experiment med rhesusapor fann forskarna att prefrontala cortex monterar dessa återanvändbara ”kognitiva Legos” för att snabbt anpassa beteenden. Resultaten, publicerade 26 november i Nature, understryker skillnader från dagens AI-system och kan så småningom informera behandlingar för störningar som försämrar flexibelt tänkande.

Researchers at Korea University have developed a dual-output artificial synapse to boost the energy efficiency of multitasking AI systems, the university announced. The device emits both electrical and optical signals simultaneously to enable parallel processing. Tests showed up to 47 percent faster computation and energy use reduced by as much as 32 times compared to conventional GPU hardware.

Rapporterad av AI

Den australiensiska startupen Cortical Labs har meddelat planer på att bygga två datacenter med chip fyllda med neuroner. Anläggningarna i Melbourne och Singapore kommer att hysa företagets CL1 biologiska datorer, som har visat förmågan att spela videospel som Doom. Initiativet syftar till att skala upp molnbaserade hjärndatorberäkningstjänster samtidigt som energiförbrukningen minskas.

En global RAM-brist, driven av efterfrågan från AI-datacenter, har lett till att PC-minnespriser stigit med 40 till 70 procent under 2025, vilket resulterar i högre kostnader och lägre specifikationer för datorer 2026. Denna utveckling dämpar hypen kring så kallade AI-PC, då tillverkare skiftar fokus mitt i avtagande konsumentintresse. Analytiker förutspår volatilitet i PC-försäljning i år, med brist som kvarstår bortom 2026.

Rapporterad av AI

En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.

At the India AI Impact Summit, Prime Minister Narendra Modi described artificial intelligence as a turning point in human history that could reset the direction of civilisation. He expressed concern over the form of AI to be handed to future generations and emphasised making it human-centric and responsible. Experts have warned about risks including data privacy, deepfakes, and autonomous weapons.

Rapporterad av AI

Kinesiska forskare har introducerat fotoniska AI-chip som lovar betydande hastighetsfördelar i specifika generativa uppgifter. Dessa chip använder fotoner istället för elektroner, vilket möjliggör större parallellism genom optisk interferens. Utvecklingen kan markera ett steg framåt för AI-hårdvara, även om påståendena är begränsade till snävt definierade tillämpningar.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj