パーデュー大学とジョージア工科大学の研究者らが、人間の脳に着想を得たAIモデル向けの新しいコンピュータアーキテクチャを提案した。このアプローチは、現在のシステムにおけるエネルギー集約型の「メモリウォール」問題に対処することを目的としている。Frontiers in Scienceに掲載されたこの研究は、日常のデバイスでより効率的なAIの実現可能性を強調している。
AIの急速な成長は、コンピュータ設計の課題を悪化させ、特に従来のシステムにおける処理とメモリの分離を際立たせている。月曜日にFrontiers in Science誌に掲載された研究は、この問題に対する脳に着想を得た解決策を概説している。パーデュー大学のコンピュータ工学教授であるKaushik Roy氏が主導したこの研究は、AIアーキテクチャをよりエネルギー効率的にするために再考することを主張している。
現在のコンピュータは、1945年に開発されたフォン・ノイマンアーキテクチャに従い、メモリと処理を分離している。この設計は、1990年代にバージニア大学の研究者らが造語した「メモリウォール」と呼ばれるボトルネックを生む。AIモデル、特に言語プロセッサが過去4年間で5,000倍のサイズに拡大したことで、メモリ速度と処理能力の格差がより深刻化している。IBMは最近の報告書でこの問題を強調した。
提案された解決策は、脳の動作から着想を得て、スパイキングニューラルネットワーク(SNN)を用いる。これらのアルゴリズムは、かつて速度の遅さと不正確さで批判されたが、近年大幅に改善された。研究者らは「メモリ内計算」(CIM)を提唱し、計算をメモリシステムに直接統合する。論文の要約では、「CIMは、計算機能をメモリシステムに直接統合することで、メモリウォール問題に対する有望な解決策を提供する」と述べられている。
Roy氏は、「言語処理モデルは過去4年間で5,000倍のサイズに成長した。この驚くほど急速な拡大により、AIを可能な限り効率的にすることが極めて重要だ。それには、コンピュータの設計方法を根本的に再考する必要がある」と指摘した。
共同著者のTanvi Sharma氏(パーデュー大学の研究者)は、「AIは21世紀で最も変革的な技術の一つだ。しかし、データセンターから現実世界へ移行するには、エネルギー消費を劇的に削減する必要がある」と付け加えた。彼女は、これにより医療機器、車両、ドローンなどの小型デバイスでAIを実現でき、バッテリー寿命が長くなり、データ転送が少なくなる可能性を説明した。
エネルギー浪費を最小限に抑えることで、このアプローチは大規模データセンターを超えてAIをよりアクセスしやすくし、リソース制約のある環境での広範な応用を支えることができる。