北京大学の研究者らが、AIトレーニングのための主要な行列方程式を高精度かつ高速で解くアナログコンピューターチップを開発した。これらのチップは、デジタルGPUと比較して最大1000倍の高速処理と100倍の低エネルギー消費を約束する。この革新は、データセンターにおけるAIの増大するエネルギー需要に対処する。
アナログコンピュータは、バイナリ数字ではなく電気抵抗などの連続量を使用してデータを処理するため、デジタルシステムに比べて速度と効率の点で長年優位性を提供してきましたが、しばしば精度を犠牲にしてきました。今、中国の北京大学のZhong Sun氏とそのチームは、この問題に対処するためのアナログチップのペアを作成し、AIモデルトレーニング、通信、科学シミュレーションに不可欠な行列方程式に焦点を当てました。
このセットアップは、2つのチップが連携して動作します。最初のチップは、行列計算の高速低精度解を提供し、エラー率は約1%です。2番目のチップは、それから反復的な洗練アルゴリズムを適用し、エラーを分析して精度を向上させます。3回のサイクル後、エラーは0.0000001%に低下し、標準的なデジタル計算の精度に匹敵するとSun氏は述べています。
現在、これらのチップは16×16の行列を扱い、256の変数を含み、小規模の問題に適しています。現代のAIモデルにおける巨大な行列へのスケーリングには、最大100万×100万の回路が必要になるとSun氏は指摘します。主な利点は、より大きな行列の解法がアナログチップの速度を低下させないことであり、デジタルチップのように指数関数的な課題に直面しません。32×32の行列の場合、チームのチップはNvidia H100 GPUをスループット(1秒あたりの処理データ量)で上回ります。
理論的には、さらにスケーリングすることで、GPUなどのデジタルチップの1000倍のスループットを実現し、100倍少ないエネルギーを使用できます。しかし、Sun氏は、現実世界のアプリケーションではこれを完全に活用できない可能性があると警告しています。なぜなら、これらのチップは行列計算に限定されているからです。「これは速度の比較に過ぎず、現実のアプリケーションでは問題が異なる可能性があります」とSun氏は言います。「私たちのチップは行列計算しかできません。行列計算が計算タスクの大部分を占める場合、問題に対して非常に大きな加速となりますが、そうでない場合、加速は限定的です。」
Sun氏は、特定のタスク向けにアナログ回路をGPUに統合したハイブリッドチップを予想していますが、これは数年先の話です。ロンドン国王学院のJames Millen氏はその可能性を強調します。「アナログコンピュータは特定のタスクに特化しており、このように信じられないほど高速で効率的です。この研究は、アナログ計算チップを使用して行列反転と呼ばれるプロセスを高速化しており、これは特定のAIモデルのトレーニングにおける重要なプロセスです。これをより効率的に行うことで、AIへの依存がますます高まる中で巨大なエネルギー需要を減らすのに役立つ可能性があります。」
この研究はNature Electronicsに掲載されています(DOI: 10.1038/s41928-025-01477-0)。