Em 2025, um pedido de liberdade de informação de um jornalista da New Scientist revelou as conversas oficiais do ChatGPT do Secretário de Tecnologia do Reino Unido, Peter Kyle, estabelecendo um precedente legal para aceder a interações governamentais com IA. Esta divulgação, a primeira no mundo, gerou interesse internacional e destacou a necessidade de transparência na adoção de IA no setor público. No entanto, pedidos subsequentes enfrentaram resistência crescente das autoridades.
A história começou em janeiro de 2025, quando o jornalista da New Scientist Jack Marley leu uma entrevista no Politics Home com Peter Kyle, o secretário de Tecnologia do Reino Unido na altura. Kyle mencionou que conversava frequentemente com o ChatGPT, o chatbot de IA regulado pelo seu departamento. Intrigado se tais interações estariam cobertas pelas leis de liberdade de informação (FOI), Marley submeteu um pedido para o histórico de conversas de Kyle.
A legislação FOI cobre tipicamente documentos de entidades públicas como e-mails, mas dados privados como consultas de pesquisa foram frequentemente isentados. Neste caso, em março de 2025, o Departamento para Ciência, Indústria e Tecnologia (DSIT) divulgou uma seleção de conversas oficiais de Kyle com o ChatGPT. Estas formaram a base de um artigo exclusivo da New Scientist que expôs as trocas.
A divulgação surpreendeu os especialistas. Tim Turner, especialista em proteção de dados baseado em Manchester, comentou: «Estou surpreendido por terem obtido». A divulgação marcou uma primeira global, atraindo inquéritos de investigadores no Canadá e na Austrália sobre replicar pedidos FOI semelhantes.
Em abril de 2025, outro pedido revelou que Feryal Clark, a ministra do Reino Unido para inteligência artificial, não utilizara o ChatGPT no seu cargo oficial, apesar de defender os seus benefícios. No entanto, os governos tornaram-se mais cautelosos. O pedido de seguimento de Marley para as respostas internas do DSIT à história —incluindo e-mails e mensagens do Microsoft Teams— foi rejeitado como vexatório, citando tempo excessivo para processamento.
Este precedente surge à medida que o serviço civil do Reino Unido integra cada vez mais ferramentas como o ChatGPT, que supostamente poupam até duas semanas por ano por utilizador através de ganhos de eficiência. No entanto, o potencial de imprecisões da IA, conhecido como alucinações, sublinha o valor da supervisão. A transparência garante a prestação de contas na forma como os governos implementam tais tecnologias, equilibrando inovação com escrutínio público.