Vidéo deepfake du chef de l'AFP sur une nouvelle arme américaine démentie

Une vidéo YouTube montrant le chef des Forces armées des Philippines, le général Romeo Brawner Jr., discutant d'une nouvelle arme hypersonique américaine est un deepfake créé avec l'IA, selon la vérification de faits de Rappler. L'AFP a mis en garde contre les chaînes falsifiées utilisant son apparence. La vidéo a dépassé 66 000 vues et présente des glitches visuels indiquant une génération artificielle.

Le 21 décembre 2025, un nouveau canal YouTube créé le 18 décembre 2025 et nommé d'après le général Romeo Brawner Jr. a publié une vidéo de 18 minutes. Dans celle-ci, une version deepfake de Brawner, vêtu d'un uniforme de camouflage, explique les capacités du Dark Eagle, une arme hypersonique à longue portée de l'armée américaine. Le titre de la vidéo affirme que le président russe Vladimir Poutine a été surpris par cette arme qui pourrait prétendument détruire Moscou en quelques minutes, bien qu'aucune description ne fournisse de contexte.

Les outils de détection confirment que la vidéo est générée par IA. L'outil deepfake de Sensity l'a évaluée à 79,3 % de confiance comme créée par IA, tandis que Hive Moderation lui a donné un score de 96,2 % pour un contenu deepfake probable. Elle présente une icône scintillante en bas à droite, typique des sorties de Google Gemini. D'autres signes incluent des incohérences comme un microphone vacillant qui se déforme ou disparaît dans la bouche, un aspect 'yeux morts', des gestes trop répétés et des actions en boucle non naturelles.

Le 23 décembre 2025, l'AFP a publié sur Facebook pour alerter le public : « L'AFP met en garde le public contre un faux canal YouTube usurpant l'identité du chef d'état-major de l'AFP, le général Romeo S. Brawner Jr., via des vidéos générées par IA hautement trompeuses. Ces contenus sont non autorisés, manipulés numériquement et destinés à induire en erreur. » Ils ont exhorté à s'en tenir aux canaux officiels du gouvernement pour des informations fiables.

Cet incident s'inscrit dans un schéma plus large de fakes générés par IA que Rappler a précédemment démentis. Un deepfake, selon le Dictionnaire Oxford, est un média manipulé numériquement pour remplacer de manière convaincante l'apparence d'une personne par celle d'une autre, souvent de manière malveillante pour dépeindre des actions qu'elle n'a pas commises.

Articles connexes

French President Emmanuel Macron denounces viral AI fake coup video at press conference.
Image générée par IA

Emmanuel Macron dénonce une vidéo IA sur un faux coup d’État en France

Rapporté par l'IA Image générée par IA

Le président français Emmanuel Macron a critiqué Meta pour son refus de supprimer une vidéo générée par IA annonçant un faux coup d’État en France, vue plus de 13 millions de fois. Cette vidéo, créée par un adolescent burkinabé cherchant à se faire connaître, a inquiété un collègue africain de Macron. Le Monde a identifié l’auteur, qui s’est dit surpris par sa viralité.

A video purporting to show US military warships and troops arriving in Subic Bay, Philippines, has been confirmed as AI-generated by a Rappler fact check. The YouTube post, dated January 16 and garnering over 52,000 views, included clips of troops on vessels and beaches, despite a disclaimer noting its artificial creation that many viewers overlooked.

Rapporté par l'IA

Les Forces armées des Philippines ont mis en garde contre la désinformation sur les réseaux sociaux affirmant des divisions internes et des réalignements politiques au sein de l'armée. L'AFP a qualifié de fausses nouvelles les rapports de retrait de soutien au président Marcos et de transfert d'allégeance à la vice-présidente Sara Duterte. L'armée a réaffirmé son unité et sa position non partisane.

Le PDG de YouTube, Neal Mohan, a annoncé que les créateurs pourront bientôt produire des Shorts en utilisant des versions générées par IA d'eux-mêmes. Cette initiative vise à améliorer les outils créatifs tout en répondant aux préoccupations concernant les deepfakes et le contenu IA de faible qualité. La plateforme considère l'IA comme un moyen d'expression plutôt que comme un substitut à la créativité humaine.

Rapporté par l'IA

À la suite d'une opération militaire américaine au Venezuela, de fausses informations ont proliféré en ligne après l'annonce de la capture du président Nicolás Maduro. Des plateformes comme TikTok, Instagram et X ont peiné à enrayer la propagation de contenus trompeurs. Cette diffusion rapide a mis en évidence les défis persistants liés à la désinformation numérique.

YouTube a supprimé deux chaînes populaires qui produisaient des bandes-annonces de films générées par IA trompeuses, invoquant des violations de ses politiques sur le spam et les métadonnées. Les chaînes, Screen Culture et KH Studio, ont réuni plus de 2 millions d’abonnés en publiant de fausses bandes-annonces pour des films inexistants. Cette mesure fait suite à des efforts antérieurs de démonétisation et met en lumière les tensions autour du contenu IA sur la plateforme.

Rapporté par l'IA

Les Forces armées des Philippines (AFP) ont effectué une patrouille de surveillance au-dessus du champ gazier de Malampaya à Palawan pour sécuriser la nouvelle réserve de gaz naturel découverte dans le pays. Menée par le chef d'état-major de l'AFP, le général Romeo Brawner Jr., l'opération a évalué la posture de sécurité de cette infrastructure énergétique critique en mer de l'Ouest des Philippines. Le président Marcos a annoncé cette découverte comme un coup de pouce significatif pour l'approvisionnement énergétique de la nation et la sécurité à long terme.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser