研究チームが、量子コンピュータがAIタスクにおける大規模データセットを効率的に処理できる可能性を示す数学的手法を開発した。データをストリーミングのようにバッチ形式で読み込むことで、膨大なメモリ要件を回避できる。60個の論理量子ビットを備えたマシンであれば、2030年代末までに従来のシステムを凌駕できる可能性がある。
量子コンピューティング企業OratomicのHsin-Yuan Huang氏らは、彼らの研究が機械学習における量子優位性の基盤を築くと主張している。従来の懐疑論では、レストランのレビューやRNA配列といった実世界のデータを量子重ね合わせ状態に入力するには、不可能なほど巨大なメモリが必要だと考えられていた。このチームの解決策は、データを小さなバッチでストリーミングし、あらかじめすべてを保存することなく処理するというもので、映画をダウンロードしてから見るのではなく、オンラインで視聴するのに近い手法だ。カリフォルニア工科大学のHaimeng Zhao氏は、この手法によってもたらされるメモリ上の優位性は非常に大きく、300個の論理量子ビットがあれば、観測可能な宇宙にあるすべての原子を使用した従来のコンピュータを上回ると指摘する。Huang氏は機械学習の普遍性を強調する。「機械学習は科学技術だけでなく、日常生活のあらゆる場面で利用されています。このような(量子コンピューティング)アーキテクチャを構築できる世界になれば、膨大なデータセットが存在するあらゆる場所に応用できるはずです」。専門家は、この技術革新を称賛しつつも慎重な姿勢を崩さない。チューリッヒ工科大学のAdrián Pérez-Salinas氏は、量子マシンにデータを少しずつ入力する手法として有望であるとしつつも、量子アルゴリズムが従来のハードウェア上では優位性を失う「デクオンタイゼーション(非量子化)」に対する検証が不可欠であると強調する。ライデン大学のVedran Dunjko氏は、大型ハドロン衝突型加速器のようなデータ集約型の実験には適していると見る一方、すべてのAIワークロードに適しているわけではないと指摘する。研究チームは今後、適用可能なアルゴリズムを広げ、量子ハードウェアの速度を最適化する計画だ。60個の論理量子ビットを備えたシステムは2030年までに実現可能と見られており、ビッグデータAI処理において初期の優位性をもたらすだろう。