Studi menyarankan algoritma terinspirasi otak untuk memangkas penggunaan energi AI

Peneliti dari Universitas Purdue dan Georgia Institute of Technology telah mengusulkan arsitektur komputer baru untuk model AI yang terinspirasi dari otak manusia. Pendekatan ini bertujuan mengatasi masalah 'memory wall' yang boros energi pada sistem saat ini. Studi yang diterbitkan di Frontiers in Science menyoroti potensi AI yang lebih efisien di perangkat sehari-hari.

Pertumbuhan cepat AI telah memperburuk tantangan dalam desain komputer, khususnya pemisahan pemrosesan dan memori pada sistem tradisional. Sebuah studi yang diterbitkan pada Senin di jurnal Frontiers in Science menguraikan solusi terinspirasi otak untuk masalah ini. Dipimpin oleh Kaushik Roy, profesor teknik komputer di Universitas Purdue, penelitian ini berargumen untuk memikirkan ulang arsitektur AI agar lebih hemat energi.

Komputer saat ini mengikuti arsitektur von Neumann, yang dikembangkan pada 1945, yang memisahkan memori dan pemrosesan. Desain ini menciptakan kemacetan yang dikenal sebagai 'memory wall', istilah yang diciptakan oleh peneliti Universitas Virginia pada 1990-an. Saat model AI, terutama pemroses bahasa, berkembang 5.000 kali lipat dalam ukuran selama empat tahun terakhir, kesenjangan antara kecepatan memori dan daya pemrosesan menjadi semakin mendesak. IBM baru-baru ini menekankan masalah ini dalam laporan.

Solusi yang diusulkan mengambil inspirasi dari cara kerja otak, menggunakan jaringan saraf spiking (SNN). Algoritma ini, yang dulunya dikritik karena lambat dan tidak akurat, telah meningkat secara signifikan dalam beberapa tahun terakhir. Peneliti menganjurkan 'compute-in-memory' (CIM), yang mengintegrasikan komputasi langsung ke dalam sistem memori. Seperti yang dinyatakan dalam abstrak makalah, "CIM menawarkan solusi menjanjikan untuk masalah memory wall dengan mengintegrasikan kemampuan komputasi langsung ke dalam sistem memori."

Roy mencatat, "Model pemrosesan bahasa telah berkembang 5.000 kali lipat dalam ukuran selama empat tahun terakhir. Perluasan cepat yang mengkhawatirkan ini membuat penting agar AI sekaya mungkin efisien. Itu berarti memikirkan ulang secara fundamental bagaimana komputer dirancang."

Penulis bersama Tanvi Sharma, peneliti Purdue, menambahkan, "AI adalah salah satu teknologi paling transformatif di abad ke-21. Namun, untuk memindahkannya dari pusat data ke dunia nyata, kita perlu mengurangi penggunaan energinya secara dramatis." Dia menjelaskan bahwa ini dapat memungkinkan AI di perangkat kompak seperti alat medis, kendaraan, dan drone, dengan masa pakai baterai lebih lama dan transfer data lebih sedikit.

Dengan meminimalkan pemborosan energi, pendekatan ini dapat membuat AI lebih mudah diakses di luar pusat data besar, mendukung aplikasi yang lebih luas di lingkungan dengan sumber daya terbatas.

Artikel Terkait

Realistic depiction of a rhesus macaque in a Princeton lab with brain overlay showing prefrontal cortex assembling reusable cognitive 'Lego' modules for flexible learning.
Gambar dihasilkan oleh AI

Studi Princeton ungkap 'Lego kognitif' otak yang dapat digunakan kembali untuk pembelajaran fleksibel

Dilaporkan oleh AI Gambar dihasilkan oleh AI Fakta terverifikasi

Neuroscientist di Universitas Princeton melaporkan bahwa otak mencapai pembelajaran fleksibel dengan menggunakan kembali komponen kognitif modular di berbagai tugas. Dalam eksperimen dengan monyet rhesus, peneliti menemukan bahwa korteks prefrontal merakit 'Lego kognitif' yang dapat digunakan kembali ini untuk menyesuaikan perilaku dengan cepat. Temuan tersebut, yang diterbitkan pada 26 November di Nature, menekankan perbedaan dengan sistem AI saat ini dan pada akhirnya dapat menginformasikan pengobatan untuk gangguan yang merusak pemikiran fleksibel.

Researchers at Korea University have developed a dual-output artificial synapse to boost the energy efficiency of multitasking AI systems, the university announced. The device emits both electrical and optical signals simultaneously to enable parallel processing. Tests showed up to 47 percent faster computation and energy use reduced by as much as 32 times compared to conventional GPU hardware.

Dilaporkan oleh AI

Startup asal Australia, Cortical Labs, mengumumkan rencana membangun dua pusat data menggunakan chip berisi neuron. Fasilitas di Melbourne dan Singapura akan menampung komputer biologis CL1 miliknya, yang telah menunjukkan kemampuan memainkan permainan video seperti Doom. Inisiatif ini bertujuan memperluas layanan komputasi otak berbasis cloud sambil mengurangi konsumsi energi.

Kekurangan global RAM yang didorong oleh permintaan pusat data AI telah menyebabkan harga memori PC melonjak 40 hingga 70 persen pada 2025, menyebabkan biaya lebih tinggi dan spesifikasi lebih rendah untuk komputer pada 2026. Perkembangan ini meredam hype seputar yang disebut PC AI, karena produsen mengalihkan fokus di tengah menurunnya minat konsumen. Analis memprediksi volatilitas dalam penjualan PC tahun ini, dengan kekurangan yang berlanjut setelah 2026.

Dilaporkan oleh AI

Sebuah komentar CNET berargumen bahwa menggambarkan AI memiliki kualitas seperti manusia seperti jiwa atau pengakuan menyesatkan publik dan mengikis kepercayaan terhadap teknologi. Ini menyoroti bagaimana perusahaan seperti OpenAI dan Anthropic menggunakan bahasa tersebut, yang menyamarkan isu nyata seperti bias dan keamanan. Artikel tersebut menyerukan terminologi yang lebih tepat untuk mendorong pemahaman yang akurat.

At the India AI Impact Summit, Prime Minister Narendra Modi described artificial intelligence as a turning point in human history that could reset the direction of civilisation. He expressed concern over the form of AI to be handed to future generations and emphasised making it human-centric and responsible. Experts have warned about risks including data privacy, deepfakes, and autonomous weapons.

Dilaporkan oleh AI

Peneliti China memperkenalkan chip AI fotonik yang menjanjikan keunggulan kecepatan signifikan dalam tugas generatif tertentu. Chip ini menggunakan foton alih-alih elektron, memungkinkan paralelisme lebih besar melalui interferensi optik. Perkembangan ini bisa menjadi langkah maju dalam perangkat keras AI, meskipun klaim terbatas pada aplikasi yang didefinisikan secara sempit.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak