量子コンピューティング手法がAIの飛躍的向上を約束

研究チームが、量子コンピュータがAIタスクにおける大規模データセットを効率的に処理できる可能性を示す数学的手法を開発した。データをストリーミングのようにバッチ形式で読み込むことで、膨大なメモリ要件を回避できる。60個の論理量子ビットを備えたマシンであれば、2030年代末までに従来のシステムを凌駕できる可能性がある。

量子コンピューティング企業OratomicのHsin-Yuan Huang氏らは、彼らの研究が機械学習における量子優位性の基盤を築くと主張している。従来の懐疑論では、レストランのレビューやRNA配列といった実世界のデータを量子重ね合わせ状態に入力するには、不可能なほど巨大なメモリが必要だと考えられていた。このチームの解決策は、データを小さなバッチでストリーミングし、あらかじめすべてを保存することなく処理するというもので、映画をダウンロードしてから見るのではなく、オンラインで視聴するのに近い手法だ。カリフォルニア工科大学のHaimeng Zhao氏は、この手法によってもたらされるメモリ上の優位性は非常に大きく、300個の論理量子ビットがあれば、観測可能な宇宙にあるすべての原子を使用した従来のコンピュータを上回ると指摘する。Huang氏は機械学習の普遍性を強調する。「機械学習は科学技術だけでなく、日常生活のあらゆる場面で利用されています。このような(量子コンピューティング)アーキテクチャを構築できる世界になれば、膨大なデータセットが存在するあらゆる場所に応用できるはずです」。専門家は、この技術革新を称賛しつつも慎重な姿勢を崩さない。チューリッヒ工科大学のAdrián Pérez-Salinas氏は、量子マシンにデータを少しずつ入力する手法として有望であるとしつつも、量子アルゴリズムが従来のハードウェア上では優位性を失う「デクオンタイゼーション(非量子化)」に対する検証が不可欠であると強調する。ライデン大学のVedran Dunjko氏は、大型ハドロン衝突型加速器のようなデータ集約型の実験には適していると見る一方、すべてのAIワークロードに適しているわけではないと指摘する。研究チームは今後、適用可能なアルゴリズムを広げ、量子ハードウェアの速度を最適化する計画だ。60個の論理量子ビットを備えたシステムは2030年までに実現可能と見られており、ビッグデータAI処理において初期の優位性をもたらすだろう。

関連記事

量子コンピューターは有用性を制限する誤りという重大な課題に直面しているが、誤り訂正の最近のブレークスルーが希望をもたらしている。革新には少ない物理量子ビットから論理量子ビットを作成し、量子もつれと追加保護により信頼性を強化することが含まれる。専門家は理論と実践が融合するエキサイティングな時期だと語る。

AIによるレポート

研究者らは、広く使われているRSA暗号アルゴリズムを破るために必要な量子コンピューティングの電力を10倍に削減し、約10万量子ビットとした。この進展は過去の研究を基盤とし、現在のセキュリティシステムの脆弱性が増大していることを強調する。ただし、そのような機械を構築する上で重大なエンジニアリング上の課題が残る。

オーストラリアの科学者らがこれまでに最大の量子シミュレーターを開発し、15,000量子ビットを使用してエキゾチックな量子材料をモデル化。Quantum Twinsと名付けられたこの装置は、超伝導体や他の先進物質の最適化に役立つ可能性がある。シリコンチップにリン原子を埋め込むことで構築され、電子特性に対する前例のない制御を提供する。

AIによるレポート

科学者らが、ワンタイム復号鍵で量子情報を暗号化することで複数のコピーを作成する方法を特定し、ノークローニング定理を回避した。この手法は、ウォータールー大学のAchim Kempf氏と同僚らが開発し、IBMの量子プロセッサでテストされた。この技術は、量子コンピューティングおよびストレージシステムの冗長性を向上させる可能性がある。

Iceberg QuantumによるqLDPCの進展など、2026年以降の量子ビット数削減技術を踏まえ、最新の研究では2029年までに量子コンピューターがRSA-2048やECDLP-256を解読する可能性があると予測されている。Googleやサイバーセキュリティの専門家は「Qデー」の到来を警告しており、Y2K(2000年問題)を上回る危機を回避するため、企業は量子耐性のある暗号への移行を急いでいる。

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否