En 2025, une demande d'accès à l'information d'un journaliste de New Scientist a révélé les conversations officielles de ChatGPT du secrétaire d'État à la Technologie du Royaume-Uni, Peter Kyle, établissant un précédent juridique pour accéder aux interactions gouvernementales avec l'IA. Cette divulgation, première au monde, a suscité un intérêt international et mis en lumière la nécessité de transparence dans l'adoption de l'IA dans le secteur public. Cependant, les demandes ultérieures ont rencontré une résistance croissante des autorités.
L'histoire a commencé en janvier 2025, lorsque le journaliste de New Scientist Jack Marley a lu un entretien dans Politics Home avec Peter Kyle, secrétaire d'État à la Technologie du Royaume-Uni à l'époque. Kyle a mentionné qu'il conversait fréquemment avec ChatGPT, le chatbot IA réglementé par son département. Intrigué de savoir si de telles interactions relevaient des lois sur la liberté d'accès à l'information (FOI), Marley a soumis une demande pour l'historique des chats de Kyle.
La législation FOI couvre généralement les documents des organismes publics comme les e-mails, mais les données privées telles que les requêtes de recherche ont souvent été exemptées. Dans ce cas, en mars 2025, le Département des Sciences, de l'Industrie et de la Technologie (DSIT) a publié une sélection des chats officiels de Kyle avec ChatGPT. Ces échanges ont servi de base à un article exclusif de New Scientist révélant les conversations.
La divulgation a surpris les experts. Tim Turner, spécialiste de la protection des données basé à Manchester, a déclaré : « Je suis surpris que vous les ayez obtenus. » Cette publication a marqué une première mondiale, attirant des demandes de chercheurs au Canada et en Australie pour reproduire des demandes FOI similaires.
En avril 2025, une autre demande a révélé que Feryal Clark, la ministre britannique de l'intelligence artificielle, n'avait pas utilisé ChatGPT dans son rôle officiel, malgré la promotion de ses avantages. Cependant, les gouvernements sont devenus plus prudents. La demande de suivi de Marley pour les réponses internes du DSIT à l'article – y compris les e-mails et messages Microsoft Teams – a été rejetée comme vexatoire, invoquant un temps de traitement excessif.
Ce précédent intervient alors que la fonction publique britannique intègre de plus en plus des outils comme ChatGPT, qui permettraient d'économiser jusqu'à deux semaines par an par utilisateur grâce à des gains d'efficacité. Cependant, le potentiel d'inexactitudes de l'IA, connu sous le nom d'hallucinations, souligne l'importance de la supervision. La transparence garantit la responsabilité dans la manière dont les gouvernements déploient de telles technologies, en équilibrant innovation et examen public.