En 2025, una solicitud de acceso a la información de un periodista de New Scientist reveló las conversaciones oficiales de ChatGPT del secretario de Tecnología del Reino Unido, Peter Kyle, estableciendo un precedente legal para acceder a interacciones gubernamentales con IA. Esta divulgación, la primera en el mundo, generó interés internacional y resaltó la necesidad de transparencia en la adopción de IA en el sector público. Sin embargo, solicitudes posteriores enfrentaron mayor resistencia de las autoridades.
La historia comenzó en enero de 2025, cuando el periodista de New Scientist Jack Marley leyó una entrevista en Politics Home con Peter Kyle, secretario de Tecnología del Reino Unido en ese momento. Kyle mencionó que conversaba frecuentemente con ChatGPT, el chatbot de IA que regulaba su departamento. Intrigado por si tales interacciones caían bajo las leyes de libertad de información (FOI), Marley presentó una solicitud del historial de chats de Kyle.
La legislación FOI cubre típicamente documentos de entidades públicas como correos electrónicos, pero datos privados como consultas de búsqueda suelen estar exentos. En este caso, en marzo de 2025, el Departamento de Ciencia, Industria y Tecnología (DSIT) liberó una selección de chats oficiales de Kyle con ChatGPT. Estos formaron la base de un artículo exclusivo de New Scientist que expuso los intercambios.
La divulgación sorprendió a los expertos. Tim Turner, especialista en protección de datos con base en Manchester, comentó: «Me sorprende que los hayan obtenido». La liberación marcó una primera global, atrayendo consultas de investigadores en Canadá y Australia sobre cómo replicar solicitudes FOI similares.
Para abril de 2025, otra solicitud reveló que Feryal Clark, ministra del Reino Unido para la inteligencia artificial, no había usado ChatGPT en su rol oficial, a pesar de promover sus beneficios. Sin embargo, los gobiernos se volvieron más cautelosos. La solicitud de seguimiento de Marley para las respuestas internas del DSIT a la historia —incluyendo correos electrónicos y mensajes de Microsoft Teams— fue rechazada como vexatoria, citando un tiempo excesivo para procesarla.
Este precedente llega mientras el servicio civil del Reino Unido integra cada vez más herramientas como ChatGPT, que supuestamente ahorran hasta dos semanas al año por usuario gracias a ganancias de eficiencia. Sin embargo, el potencial de inexactitudes de la IA, conocido como alucinaciones, subraya el valor de la supervisión. La transparencia asegura la rendición de cuentas en cómo los gobiernos despliegan tales tecnologías, equilibrando innovación con escrutinio público.