Peneliti di Universitas Peking telah mengembangkan chip komputer analog yang menyelesaikan persamaan matriks kunci untuk pelatihan AI dengan akurasi dan kecepatan tinggi. Chip ini menjanjikan pemrosesan hingga 1000 kali lebih cepat dan penggunaan energi 100 kali lebih sedikit dibandingkan GPU digital. Inovasi ini mengatasi permintaan energi yang meningkat untuk AI di pusat data.
Komputer analog, yang memproses data menggunakan kuantitas kontinu seperti resistansi listrik daripada digit biner, telah lama menawarkan keunggulan dalam kecepatan dan efisiensi dibandingkan sistem digital tetapi sering kali dengan mengorbankan akurasi. Kini, Zhong Sun di Universitas Peking di China dan timnya telah menciptakan sepasang chip analog untuk mengatasi masalah ini, dengan fokus pada persamaan matriks yang esensial untuk pelatihan model AI, telekomunikasi, dan simulasi ilmiah.
Pengaturan ini melibatkan dua chip yang bekerja bersama. Yang pertama memberikan solusi cepat rendah presisi untuk perhitungan matriks dengan tingkat kesalahan sekitar 1 persen. Chip kedua kemudian menerapkan algoritma penyempurnaan iteratif, menganalisis kesalahan dan meningkatkan presisi. Setelah tiga siklus, kesalahan turun menjadi 0.0000001 persen, sesuai dengan akurasi komputasi digital standar, menurut Sun.
Saat ini, chip tersebut menangani matriks 16 kali 16, melibatkan 256 variabel, cocok untuk masalah yang lebih kecil. Skalabilitas ke matriks besar dalam model AI modern akan memerlukan sirkuit hingga satu juta kali satu juta, catat Sun. Manfaat utama adalah bahwa menyelesaikan matriks yang lebih besar tidak memperlambat chip analog, tidak seperti yang digital, yang menghadapi tantangan eksponensial. Untuk matriks 32 kali 32, chip tim akan mengungguli GPU Nvidia H100 dalam throughput—data yang diproses per detik.
Secara teori, penskalaan lebih lanjut bisa mencapai 1000 kali throughput chip digital seperti GPU sambil menggunakan 100 kali lebih sedikit energi. Namun, Sun memperingatkan bahwa aplikasi dunia nyata mungkin tidak sepenuhnya memanfaatkan ini, karena chip terbatas pada komputasi matriks. "Ini hanya perbandingan kecepatan, dan untuk aplikasi nyata, masalahnya mungkin berbeda," kata Sun. "Chip kami hanya bisa melakukan komputasi matriks. Jika komputasi matriks mendominasi sebagian besar tugas komputasi, itu mewakili percepatan yang sangat signifikan untuk masalah tersebut, tapi jika tidak, itu akan menjadi peningkatan kecepatan yang terbatas."
Sun mengantisipasi chip hibrida, mengintegrasikan sirkuit analog ke dalam GPU untuk tugas spesifik, meskipun ini masih bertahun-tahun lagi. James Millen di King’s College London menyoroti potensinya: "Komputer analog disesuaikan untuk tugas spesifik, dan dengan cara ini bisa sangat cepat dan efisien. Pekerjaan ini menggunakan chip komputasi analog untuk mempercepat proses yang disebut inversi matriks, yang merupakan proses kunci dalam pelatihan model AI tertentu. Melakukannya lebih efisien bisa membantu mengurangi permintaan energi yang besar dari ketergantungan kita yang semakin besar pada AI."
Penelitian ini muncul di Nature Electronics (DOI: 10.1038/s41928-025-01477-0).