Le patron d'Instagram prône le marquage des médias authentiques plutôt que la détection d'IA

Adam Mosseri, responsable d'Instagram, a suggéré que les plateformes devraient se concentrer sur la vérification des contenus authentiques plutôt que sur la traque des faux générés par IA, alors que l'intelligence artificielle devient omniprésente sur les réseaux sociaux. Dans un billet exposant les tendances pour 2026, il a mis en lumière la façon dont l'IA transforme la plateforme et autonomise les créateurs. Mosseri a insisté sur la nécessité pour les fabricants d'appareils photo de signer cryptographiquement les images dès leur capture pour en établir l'authenticité.

Adam Mosseri, responsable d'Instagram, a partagé sa vision pour l'avenir de la plateforme dans un billet détaillé le 31 décembre 2025, au milieu de l'essor rapide des contenus générés par IA qui ont dominé les fils d'actualité des réseaux sociaux tout au long de l'année. Il a noté que l'IA a rendu accessibles à quiconque dispose des bons outils des éléments autrefois uniques aux créateurs, tels que l'authenticité, la connexion et une voix inimitable. « Tout ce qui faisait l'importance des créateurs — la capacité d'être vrai, de se connecter, d'avoir une voix qui ne pouvait être falsifiée — est maintenant soudainement accessible à quiconque avec les bons outils », a écrit Mosseri. « Les fils d'actualité commencent à se remplir de tout contenu synthétique. »

Malgré ce virage, Mosseri s'est montré optimiste quant au potentiel de l'IA, qualifiant une grande partie du contenu d'« incroyable ». Cependant, il a reconnu les défis croissants pour distinguer le vrai du faux. Les plateformes sociales subissent une pression accrue pour étiqueter les contenus générés par IA, mais à mesure que l'IA s'améliore dans l'imitation de la réalité, les efforts de détection deviendront moins efficaces. Mosseri a proposé une alternative : « Il sera plus pratique de marquer les médias authentiques que les faux. » Il a suggéré que les fabricants d'appareils photo mettent en œuvre une signature cryptographique au moment de la capture, créant une chaîne de custody vérifiable pour les images.

Cette approche s'aligne sur les difficultés de Meta à identifier de manière fiable les contenus manipulés, malgré des investissements de dizaines de milliards dans l'IA cette année. Les méthodes existantes comme les filigranes se sont révélées peu fiables et faciles à contourner. Mosseri a également évoqué les frustrations des photographes et créateurs, qui se plaignent des biais algorithmiques contre leurs publications. Il a argué que l'ère des images polies et carrées est révolue, exhortant les créateurs à adopter des visuels bruts et peu flatteurs pour démontrer leur authenticité dans un environnement saturé d'IA. Avec 3 milliards d'utilisateurs sur Instagram, ce pivot pourrait redéfinir la création de contenu et la confiance sur la plateforme.

Articles connexes

Tech leaders from Anthropic, AMD, and others on stage at WIRED's Big Interview event in San Francisco, discussing AI and big tech amid futuristic visuals.
Image générée par IA

Les leaders tech abordent l'IA et le big tech lors de l'événement Big Interview de WIRED

Rapporté par l'IA Image générée par IA

Lors de l'événement Big Interview de WIRED à San Francisco, des figures emblématiques de la tech ont discuté de l'avenir de l'IA, des cryptomonnaies et des défis de la Silicon Valley. Les intervenants incluaient des dirigeants de Circle, Cloudflare, Anthropic, AMD et d'autres, partageant leurs points de vue sur l'innovation, la régulation et l'éthique industrielle. L'événement a mis en lumière les efforts pour équilibrer progrès technologique et impacts sociétaux.

En 2025, un chroniqueur tech a tenté de se réengager sur les grandes plateformes de réseaux sociaux après des années d'évitement, pour les trouver dominées par du contenu sponsorisé et des matériaux générés par IA qui ont érodé les connexions humaines authentiques. Cette expérience personnelle reflétait une désillusion plus large, rendant plus simple de s'éloigner malgré des chiffres records d'utilisateurs sur des plateformes comme Instagram et TikTok. Des alternatives comme Reddit et Bluesky offraient un répit au milieu de la surcharge commerciale.

Rapporté par l'IA

Adam Mosseri, responsable d'Instagram, a défendu la plateforme lors d'un procès concernant des allégations sur la santé mentale des jeunes. Les parents ont exprimé leurs préoccupations sur l'impact des réseaux sociaux sur les enfants. Le procès se concentre sur les décisions d'Instagram en matière de santé mentale des jeunes.

Google a introduit Me Meme, une fonctionnalité alimentée par l'IA dans son application Photos qui transforme les photos des utilisateurs en mèmes personnalisés à l'aide de modèles. L'outil permet aux utilisateurs de télécharger des images de leurs animaux de compagnie, amis ou d'eux-mêmes pour créer du contenu partageable. Elle est déployée progressivement sur les appareils Android et iOS au cours des prochaines semaines.

Rapporté par l'IA

Les experts en cybersécurité sont de plus en plus alarmés par la manière dont l’intelligence artificielle redéfinit la cybercriminalité, avec des outils comme les deepfakes, le phishing IA et les grands modèles de langage sombres permettant même aux novices d’exécuter des escroqueries avancées. Ces évolutions représentent des risques majeurs pour les entreprises l’année prochaine. Des analyses publiées par TechRadar soulignent l’ampleur et la sophistication de ces menaces émergentes.

Les consommateurs se fient de plus en plus aux avis d’utilisateurs sur des plateformes comme Reddit et TikTok pour surmonter la méfiance envers les achats en ligne alimentée par le contenu généré par l’IA. Des marques telles que Medicube et Alo Yoga intègrent ces avis dans leurs stratégies de croissance et de construction de la confiance. Les experts soulignent le rôle des avis comme validation humaine dans un marché dominé par les algorithmes.

Rapporté par l'IA

Dans le cadre d'un nouvel accord avec le Département des Technologies de l'Information et de la Communication, Meta s'est engagé à renforcer ses mécanismes de détection, de signalement et de suppression de la désinformation et du contenu inapproprié sur Facebook. Cela inclut un signalement plus rapide des matériels d'exploitation d'enfants, un rapport immédiat aux autorités locales et leur suppression de la plateforme. L'accord cible également les arnaques telles que les schémas d'investissement frauduleux utilisant des deepfakes de responsables, de dirigeants d'entreprise et de célébrités.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser