Peneliti dari Universitas Purdue dan Georgia Institute of Technology telah mengusulkan arsitektur komputer baru untuk model AI yang terinspirasi dari otak manusia. Pendekatan ini bertujuan mengatasi masalah 'memory wall' yang boros energi pada sistem saat ini. Studi yang diterbitkan di Frontiers in Science menyoroti potensi AI yang lebih efisien di perangkat sehari-hari.
Pertumbuhan cepat AI telah memperburuk tantangan dalam desain komputer, khususnya pemisahan pemrosesan dan memori pada sistem tradisional. Sebuah studi yang diterbitkan pada Senin di jurnal Frontiers in Science menguraikan solusi terinspirasi otak untuk masalah ini. Dipimpin oleh Kaushik Roy, profesor teknik komputer di Universitas Purdue, penelitian ini berargumen untuk memikirkan ulang arsitektur AI agar lebih hemat energi.
Komputer saat ini mengikuti arsitektur von Neumann, yang dikembangkan pada 1945, yang memisahkan memori dan pemrosesan. Desain ini menciptakan kemacetan yang dikenal sebagai 'memory wall', istilah yang diciptakan oleh peneliti Universitas Virginia pada 1990-an. Saat model AI, terutama pemroses bahasa, berkembang 5.000 kali lipat dalam ukuran selama empat tahun terakhir, kesenjangan antara kecepatan memori dan daya pemrosesan menjadi semakin mendesak. IBM baru-baru ini menekankan masalah ini dalam laporan.
Solusi yang diusulkan mengambil inspirasi dari cara kerja otak, menggunakan jaringan saraf spiking (SNN). Algoritma ini, yang dulunya dikritik karena lambat dan tidak akurat, telah meningkat secara signifikan dalam beberapa tahun terakhir. Peneliti menganjurkan 'compute-in-memory' (CIM), yang mengintegrasikan komputasi langsung ke dalam sistem memori. Seperti yang dinyatakan dalam abstrak makalah, "CIM menawarkan solusi menjanjikan untuk masalah memory wall dengan mengintegrasikan kemampuan komputasi langsung ke dalam sistem memori."
Roy mencatat, "Model pemrosesan bahasa telah berkembang 5.000 kali lipat dalam ukuran selama empat tahun terakhir. Perluasan cepat yang mengkhawatirkan ini membuat penting agar AI sekaya mungkin efisien. Itu berarti memikirkan ulang secara fundamental bagaimana komputer dirancang."
Penulis bersama Tanvi Sharma, peneliti Purdue, menambahkan, "AI adalah salah satu teknologi paling transformatif di abad ke-21. Namun, untuk memindahkannya dari pusat data ke dunia nyata, kita perlu mengurangi penggunaan energinya secara dramatis." Dia menjelaskan bahwa ini dapat memungkinkan AI di perangkat kompak seperti alat medis, kendaraan, dan drone, dengan masa pakai baterai lebih lama dan transfer data lebih sedikit.
Dengan meminimalkan pemborosan energi, pendekatan ini dapat membuat AI lebih mudah diakses di luar pusat data besar, mendukung aplikasi yang lebih luas di lingkungan dengan sumber daya terbatas.