Pada 2025, permintaan informasi kebebasan dari jurnalis New Scientist mengungkap percakapan resmi ChatGPT Menteri Teknologi Inggris Peter Kyle, menetapkan preseden hukum untuk mengakses interaksi AI pemerintah. Pengungkapan pertama di dunia ini memicu minat internasional dan menyoroti kebutuhan transparansi dalam adopsi AI sektor publik. Namun, permintaan selanjutnya menghadapi resistensi yang meningkat dari otoritas.
Cerita dimulai pada Januari 2025, ketika jurnalis New Scientist Jack Marley membaca wawancara di Politics Home dengan Peter Kyle, menteri teknologi Inggris saat itu. Kyle menyebutkan sering berdiskusi dengan ChatGPT, chatbot AI yang diatur departemennya. Terpesona apakah interaksi tersebut termasuk dalam undang-undang kebebasan informasi (FOI), Marley mengajukan permintaan riwayat obrolan Kyle.
Peraturan FOI biasanya mencakup dokumen badan publik seperti email, tetapi data pribadi seperti kueri pencarian sering dikecualikan. Dalam kasus ini, pada Maret 2025, Departemen Sains, Industri dan Teknologi (DSIT) merilis seleksi obrolan resmi Kyle dengan ChatGPT. Ini menjadi dasar artikel eksklusif New Scientist yang mengungkap pertukaran tersebut.
Pengungkapan itu mengejutkan para ahli. Tim Turner, spesialis perlindungan data berbasis Manchester, berkomentar, “Saya terkejut Anda mendapatkannya.” Pelepasan itu menandai yang pertama secara global, menarik pertanyaan dari peneliti di Kanada dan Australia tentang mereplikasi permintaan FOI serupa.
Pada April 2025, permintaan lain mengungkap bahwa Feryal Clark, menteri AI Inggris, tidak menggunakan ChatGPT dalam peran resminya, meskipun menganjurkan manfaatnya. Namun, pemerintah menjadi lebih waspada. Permintaan tindak lanjut Marley untuk respons internal DSIT terhadap cerita —termasuk email dan pesan Microsoft Teams— ditolak sebagai mengganggu, dengan alasan waktu pemrosesan berlebih.
Preseden ini muncul saat layanan sipil Inggris semakin mengintegrasikan alat seperti ChatGPT, yang dilaporkan menghemat hingga dua minggu per tahun per pengguna melalui peningkatan efisiensi. Namun, potensi ketidakakuratan AI, yang dikenal sebagai halusinasi, menekankan nilai pengawasan. Transparansi memastikan akuntabilitas dalam cara pemerintah menerapkan teknologi tersebut, menyeimbangkan inovasi dengan pengawasan publik.