Le président français Emmanuel Macron a critiqué Meta pour son refus de supprimer une vidéo générée par IA annonçant un faux coup d’État en France, vue plus de 13 millions de fois. Cette vidéo, créée par un adolescent burkinabé cherchant à se faire connaître, a inquiété un collègue africain de Macron. Le Monde a identifié l’auteur, qui s’est dit surpris par sa viralité.
Le 16 décembre, lors d’une rencontre avec les lecteurs de La Provence, Emmanuel Macron s’est vivement pris à Facebook et sa maison mère Meta. Il a dénoncé leur refus de retirer une vidéo générée par intelligence artificielle, qui annonce un coup d’État fictif en France. Dans cette séquence, une fausse journaliste présente depuis Paris la prise de pouvoir par un colonel. La vidéo a accumulé plus de 13 millions de vues sur Facebook.
Macron a expliqué avoir découvert cette désinformation grâce à un « collègue africain » qui l’a contacté, inquiet de la situation en France. « Ces gens-là se moquent de nous. Ils se moquent de la souveraineté des démocraties, et donc ils nous mettent en danger », a-t-il déclaré. L’Élysée a demandé la suppression via la plateforme Pharos, mais Meta a répondu que le contenu ne violait pas ses règles, refusant ainsi le retrait.
Le Monde a retrouvé l’auteur de la vidéo : un adolescent burkinabé anonyme, administrateur d’une page Facebook depuis son pays. Il a aussi posté la séquence sur TikTok. « Je l’ai postée comme ça, et le lendemain je vois que la vidéo est à 11 millions de vues, j’étais étonné », a-t-il confié lors d’un appel de vingt minutes. L’adolescent, méfiant mais impressionné, assure n’avoir visé qu’à « percer » et ne pas avoir anticipé l’ampleur de la diffusion. Il n’a pas précisé si TikTok avait été contacté pour un retrait.
Cette affaire illustre les défis de la modération des contenus IA sur les réseaux sociaux, comme l’a souligné Macron, qui n’a pas mentionné d’autres actions étatiques au-delà de la demande à Meta.