AIが自律的にタスクを処理する製品の普及に伴い、日本政府はAI事業者に人間の意思決定を必要とするシステム構築を求める方針だ。この要件は、AI開発・提供・利用に関わる事業者や自治体向けガイドラインの改定案に盛り込まれ、内閣府と経済産業省が月曜日に公表した。ガイドラインは2024年に導入され、法的拘束力はない。
日本政府は、AIの急速な発展に対応するため、ガイドラインを改定する。改定案では、「物理的AI」(ロボットや自動運転など)と「AIエージェント」(自律的にタスクを処理するもの)の管理システム構築をAI事業者に求める。これにより、誤作動や悪用を防ぐことを目指す。例えば、AIベースのシステムで高額商品を販売する場合、顧客の同意を得る必要がある。
これらのAIの定義がガイドラインに初めて明記された。物理的AIは、センサーなどで外部情報を取得し、AIで処理して自律的な意思決定と物理的行動を行うシステムとされる。一方、AIエージェントは、環境を理解し、自律的に操作を実行するAIシステムだ。
総務省傘下の専門家パネルが改定案を議論し、3月末までに最終化する予定。ガイドラインは2024年に導入されて以来2度目の改定となる。