2025年、New Scientistのジャーナリストの情報公開請求により、英国技術相ピーター・カイルの公式ChatGPT会話が明らかになり、政府のAI相互作用へのアクセスに関する法的先例が確立された。この世界初の開示は国際的な関心を呼び、公共セクターでのAI導入における透明性の必要性を強調した。しかし、その後の請求は当局からますます強い抵抗を受けた。
物語は2025年1月、New Scientistのジャーナリスト、ジャック・マーリーがPolitics Homeのピーター・カイル(当時の英国技術相)とのインタビューを読んだことから始まった。カイルは、自らの部門が規制するAIチャットボットChatGPTとの会話を頻繁に行っていると述べた。このようなやり取りが情報公開法(FOI)の対象となるか興味を持ち、マーリーはカイルのチャット履歴を請求した。
FOI法は通常、公的機関の文書(メールなど)を対象とするが、検索クエリなどの個人データはしばしば免除される。このケースでは、2025年3月、科学・産業・技術省(DSIT)がカイルの公式ChatGPTチャットの選抜版を公開した。これらはNew Scientistの独占記事の基盤となり、やり取りを暴露した。
この開示は専門家を驚かせた。マンチェスター在住のデータ保護専門家ティム・ターナーは、「それらを手に入れたことに驚いた」と語った。この公開は世界初であり、カナダとオーストラリアの研究者から同様のFOI請求の再現に関する問い合わせが寄せられた。
2025年4月までに別の請求で、人工知能担当大臣フェリヤル・クラークが公式業務でChatGPTを使用していなかったことが明らかになったが、その利点を推進していたにもかかわらずだ。しかし、政府はより慎重になった。マーリーのフォローアップ請求、つまり記事に対するDSITの内部対応(メールやMicrosoft Teamsメッセージを含む)は、処理時間の過多を理由に迷惑請求として却下された。
この先例は、英国公務員がChatGPTのようなツールをますます統合する中で生まれたもので、ユーザー1人あたり年間最大2週間の節約になると報告されている。しかし、AIの不正確さ(ハルシネーションとして知られる)の可能性は監督の価値を強調する。透明性は、政府がこうした技術を展開する方法に対する説明責任を確保し、イノベーションと公的監視のバランスを取る。