Studi menyarankan algoritma terinspirasi otak untuk memangkas penggunaan energi AI

Peneliti dari Universitas Purdue dan Georgia Institute of Technology telah mengusulkan arsitektur komputer baru untuk model AI yang terinspirasi dari otak manusia. Pendekatan ini bertujuan mengatasi masalah 'memory wall' yang boros energi pada sistem saat ini. Studi yang diterbitkan di Frontiers in Science menyoroti potensi AI yang lebih efisien di perangkat sehari-hari.

Pertumbuhan cepat AI telah memperburuk tantangan dalam desain komputer, khususnya pemisahan pemrosesan dan memori pada sistem tradisional. Sebuah studi yang diterbitkan pada Senin di jurnal Frontiers in Science menguraikan solusi terinspirasi otak untuk masalah ini. Dipimpin oleh Kaushik Roy, profesor teknik komputer di Universitas Purdue, penelitian ini berargumen untuk memikirkan ulang arsitektur AI agar lebih hemat energi.

Komputer saat ini mengikuti arsitektur von Neumann, yang dikembangkan pada 1945, yang memisahkan memori dan pemrosesan. Desain ini menciptakan kemacetan yang dikenal sebagai 'memory wall', istilah yang diciptakan oleh peneliti Universitas Virginia pada 1990-an. Saat model AI, terutama pemroses bahasa, berkembang 5.000 kali lipat dalam ukuran selama empat tahun terakhir, kesenjangan antara kecepatan memori dan daya pemrosesan menjadi semakin mendesak. IBM baru-baru ini menekankan masalah ini dalam laporan.

Solusi yang diusulkan mengambil inspirasi dari cara kerja otak, menggunakan jaringan saraf spiking (SNN). Algoritma ini, yang dulunya dikritik karena lambat dan tidak akurat, telah meningkat secara signifikan dalam beberapa tahun terakhir. Peneliti menganjurkan 'compute-in-memory' (CIM), yang mengintegrasikan komputasi langsung ke dalam sistem memori. Seperti yang dinyatakan dalam abstrak makalah, "CIM menawarkan solusi menjanjikan untuk masalah memory wall dengan mengintegrasikan kemampuan komputasi langsung ke dalam sistem memori."

Roy mencatat, "Model pemrosesan bahasa telah berkembang 5.000 kali lipat dalam ukuran selama empat tahun terakhir. Perluasan cepat yang mengkhawatirkan ini membuat penting agar AI sekaya mungkin efisien. Itu berarti memikirkan ulang secara fundamental bagaimana komputer dirancang."

Penulis bersama Tanvi Sharma, peneliti Purdue, menambahkan, "AI adalah salah satu teknologi paling transformatif di abad ke-21. Namun, untuk memindahkannya dari pusat data ke dunia nyata, kita perlu mengurangi penggunaan energinya secara dramatis." Dia menjelaskan bahwa ini dapat memungkinkan AI di perangkat kompak seperti alat medis, kendaraan, dan drone, dengan masa pakai baterai lebih lama dan transfer data lebih sedikit.

Dengan meminimalkan pemborosan energi, pendekatan ini dapat membuat AI lebih mudah diakses di luar pusat data besar, mendukung aplikasi yang lebih luas di lingkungan dengan sumber daya terbatas.

Artikel Terkait

Illustration of glowing whole-brain neural networks coordinating efficiently, representing a University of Notre Dame study on general intelligence.
Gambar dihasilkan oleh AI

Study points to whole-brain network coordination as a key feature of general intelligence

Dilaporkan oleh AI Gambar dihasilkan oleh AI Fakta terverifikasi

University of Notre Dame researchers report evidence that general intelligence is associated with how efficiently and flexibly brain networks coordinate across the whole connectome, rather than being localized to a single “smart” region. The findings, published in Nature Communications, are based on neuroimaging and cognitive data from 831 Human Connectome Project participants and an additional 145 adults from the INSIGHT Study.

Researchers at Korea University have developed a dual-output artificial synapse to boost the energy efficiency of multitasking AI systems, the university announced. The device emits both electrical and optical signals simultaneously to enable parallel processing. Tests showed up to 47 percent faster computation and energy use reduced by as much as 32 times compared to conventional GPU hardware.

Dilaporkan oleh AI

Australia-based start-up Cortical Labs has announced plans to construct two data centres using neuron-filled chips. The facilities in Melbourne and Singapore will house its CL1 biological computers, which have demonstrated the ability to play video games like Doom. The initiative aims to scale up cloud-based brain-computing services while reducing energy consumption.

Researchers from the University of Pennsylvania have identified 'cognitive surrender,' where people outsource reasoning to AI without verification. In experiments, participants accepted incorrect AI responses 73.2 percent of the time across 1,372 participants. Factors like time pressure increased reliance on flawed outputs.

Dilaporkan oleh AI

Artificial intelligence (AI) has emerged at the center of modern warfare, playing an operational support role in the recent U.S.-Israeli strike on Iran. Anthropic's Claude and Palantir's Gotham were used for intelligence assessments and target identification. Experts predict further expansion of AI in military applications.

Across the United States, Republican and Democratic lawmakers are aligning to regulate artificial intelligence and the energy-intensive data centers that power it, driven by concerns over electricity costs and resource use. President Trump has joined the push by urging tech companies to build their own power plants. This unusual cooperation contrasts with federal gridlock and reflects voter frustrations ahead of midterms.

Dilaporkan oleh AI

China is testing a prototype nuclear reactor that can be carried on a truck and generate up to 10 megawatts of energy, enough to power a medium-sized AI data centre, a leading scientist said. The reactor, in development for several years, is described as the “world’s first 10-megawatt vehicle-mounted nuclear power unit”.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak