New Scientist établit un précédent pour la FOI au Royaume-Uni sur l'usage des chatbots IA

En 2025, une demande d'accès à l'information d'un journaliste de New Scientist a révélé les conversations officielles de ChatGPT du secrétaire d'État à la Technologie du Royaume-Uni, Peter Kyle, établissant un précédent juridique pour accéder aux interactions gouvernementales avec l'IA. Cette divulgation, première au monde, a suscité un intérêt international et mis en lumière la nécessité de transparence dans l'adoption de l'IA dans le secteur public. Cependant, les demandes ultérieures ont rencontré une résistance croissante des autorités.

L'histoire a commencé en janvier 2025, lorsque le journaliste de New Scientist Jack Marley a lu un entretien dans Politics Home avec Peter Kyle, secrétaire d'État à la Technologie du Royaume-Uni à l'époque. Kyle a mentionné qu'il conversait fréquemment avec ChatGPT, le chatbot IA réglementé par son département. Intrigué de savoir si de telles interactions relevaient des lois sur la liberté d'accès à l'information (FOI), Marley a soumis une demande pour l'historique des chats de Kyle.

La législation FOI couvre généralement les documents des organismes publics comme les e-mails, mais les données privées telles que les requêtes de recherche ont souvent été exemptées. Dans ce cas, en mars 2025, le Département des Sciences, de l'Industrie et de la Technologie (DSIT) a publié une sélection des chats officiels de Kyle avec ChatGPT. Ces échanges ont servi de base à un article exclusif de New Scientist révélant les conversations.

La divulgation a surpris les experts. Tim Turner, spécialiste de la protection des données basé à Manchester, a déclaré : « Je suis surpris que vous les ayez obtenus. » Cette publication a marqué une première mondiale, attirant des demandes de chercheurs au Canada et en Australie pour reproduire des demandes FOI similaires.

En avril 2025, une autre demande a révélé que Feryal Clark, la ministre britannique de l'intelligence artificielle, n'avait pas utilisé ChatGPT dans son rôle officiel, malgré la promotion de ses avantages. Cependant, les gouvernements sont devenus plus prudents. La demande de suivi de Marley pour les réponses internes du DSIT à l'article – y compris les e-mails et messages Microsoft Teams – a été rejetée comme vexatoire, invoquant un temps de traitement excessif.

Ce précédent intervient alors que la fonction publique britannique intègre de plus en plus des outils comme ChatGPT, qui permettraient d'économiser jusqu'à deux semaines par an par utilisateur grâce à des gains d'efficacité. Cependant, le potentiel d'inexactitudes de l'IA, connu sous le nom d'hallucinations, souligne l'importance de la supervision. La transparence garantit la responsabilité dans la manière dont les gouvernements déploient de telles technologies, en équilibrant innovation et examen public.

Articles connexes

Illustration depicting OpenAI's ChatGPT-5.2 launch, showing professionals using the AI to enhance workplace productivity amid rivalry with Google's Gemini.
Image générée par IA

OpenAI lance ChatGPT-5.2 pour booster la productivité au travail

Rapporté par l'IA Image générée par IA

OpenAI a lancé ChatGPT-5.2, une nouvelle famille de modèles d’IA conçus pour renforcer le raisonnement et la productivité, en particulier pour les tâches professionnelles. Ce lancement fait suite à une alerte interne du PDG Sam Altman concernant la concurrence de Gemini 3 de Google. La mise à jour comprend trois variantes adaptées à différents besoins des utilisateurs, à partir des abonnés payants.

OpenAI a renforcé les capacités de mémoire de ChatGPT, lui permettant de se souvenir de conversations remontant jusqu'à un an. La mise à jour permet également des liens directs vers ces interactions passées. Cette amélioration vise à rendre l'assistant IA plus contextuel et convivial.

Rapporté par l'IA

L’Indonésie a mis fin à son interdiction du chatbot IA Grok, autorisant la reprise du service après des préoccupations sur la génération de deepfakes. La décision s’accompagne d’une surveillance gouvernementale stricte et continue. Cela fait suite à des mesures similaires dans les pays voisins plus tôt dans l’année.

En 2025, les agents IA sont devenus centraux dans les progrès de l'intelligence artificielle, permettant aux systèmes d'utiliser des outils et d'agir de manière autonome. De la théorie aux applications quotidiennes, ils ont transformé les interactions humaines avec les grands modèles de langage. Pourtant, ils ont aussi apporté des défis comme des risques de sécurité et des lacunes réglementaires.

Rapporté par l'IA

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

Alors que le boom de l’IA se poursuit, les chatbots comme GPT-5 voient leur prominence s’estomper rapidement. Les observateurs de l’industrie prédisent que 2026 appartiendra à Qwen. Ce changement est mis en lumière par les innovations de la startup chinoise Rokid.

Rapporté par l'IA

Le procureur général de Californie, Rob Bonta, a adressé une mise en demeure à xAI, suite à une enquête sur son chatbot IA Grok générant des images explicites sans consentement. L'action vise la création de deepfakes dépeignant des personnes réelles, y compris des mineurs, dans des scénarios sexualisés sans permission. Le bureau de Bonta exige que xAI réponde dans cinq jours sur les mesures correctives.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser