Les entreprises d'IA se préparent aux publicités alors que des menaces de manipulation émergent

Alors que les plateformes d'IA passent à une monétisation basée sur la publicité, des chercheurs mettent en garde contre le fait que cette technologie pourrait façonner le comportement, les croyances et les choix des utilisateurs de manière invisible. Cela marque un revirement pour OpenAI, dont le PDG Sam Altman a jugé un jour le mélange de publicités et d'IA « troublant », mais qui assure désormais que les publicités dans les apps IA peuvent préserver la confiance.

Il y a dix-huit mois, l'intelligence artificielle aurait pu emprunter une voie différente de celle des réseaux sociaux, mais désormais l'industrie de l'IA adopte la stratégie des réseaux sociaux de monétiser l'attention des consommateurs. OpenAI a lancé son ChatGPT Search fin 2024 et ChatGPT Atlas pour navigateur en octobre 2025, déclenchant une course à la collecte de données comportementales en ligne pour la publicité.

Articles connexes

Smartphone displaying ChatGPT with a test advertisement banner for free users, illustrating OpenAI's new ad testing initiative.
Image générée par IA

OpenAI va tester des publicités dans ChatGPT pour les utilisateurs gratuits et du niveau Go

Rapporté par l'IA Image générée par IA

OpenAI a annoncé des plans pour commencer à tester des publicités dans son application ChatGPT pour les utilisateurs gratuits et le nouveau niveau d'abonnement Go à 8 dollars par mois aux États-Unis. L'entreprise vise à diversifier ses revenus face à des pressions financières importantes, tout en veillant à ce que les publicités n'influencent pas les réponses de l'IA. Les niveaux payants supérieurs resteront sans publicité.

Anthropic a annoncé que son chatbot IA Claude restera sans publicité, en net contraste avec la décision récente de son rival OpenAI de tester des publicités dans ChatGPT. L'entreprise a lancé une campagne publicitaire lors du Super Bowl moquant les assistants IA qui interrompent les conversations avec des pitches produits. Cette initiative met en lumière les tensions croissantes dans le paysage concurrentiel de l'IA.

Rapporté par l'IA

En 2025, les agents IA sont devenus centraux dans les progrès de l'intelligence artificielle, permettant aux systèmes d'utiliser des outils et d'agir de manière autonome. De la théorie aux applications quotidiennes, ils ont transformé les interactions humaines avec les grands modèles de langage. Pourtant, ils ont aussi apporté des défis comme des risques de sécurité et des lacunes réglementaires.

Une étude de l’université Cornell révèle que des outils d’IA comme ChatGPT ont augmenté la production d’articles des chercheurs jusqu’à 50 %, bénéficiant particulièrement aux non-anglophones. Cependant, cette vague de manuscrits polis complique les évaluations par les pairs et les décisions de financement, car beaucoup manquent de valeur scientifique substantielle. Les résultats soulignent un changement dans les dynamiques de la recherche mondiale et appellent à des politiques actualisées sur l’utilisation de l’IA en académie.

Rapporté par l'IA

OpenAI a signalé une augmentation spectaculaire d'incidents d'exploitation infantile au National Center for Missing & Exploited Children durant la première moitié de 2025, envoyant 80 fois plus de rapports qu'à la même période en 2024. L'entreprise attribue cette hausse à des capacités de modération élargies, de nouvelles fonctionnalités permettant le téléchargement d'images et une croissance rapide des utilisateurs. Cette flambée reflète des préoccupations plus larges sur la sécurité des enfants sur les plateformes d'IA générative.

Certains utilisateurs de chatbots d'IA de Google et OpenAI génèrent des images deepfake qui modifient des photos de femmes entièrement vêtues pour les montrer en bikini. Ces modifications se font souvent sans le consentement des femmes, et les instructions pour le processus sont partagées entre utilisateurs. Cette activité met en lumière les risques des outils d'IA générative.

Rapporté par l'IA

eBay a mis à jour son contrat d'utilisateur pour interdire aux agents IA tiers et chatbots d'effectuer des achats sur sa plateforme sans autorisation. La politique, effective le 20 février 2026, répond à la tendance croissante des outils de 'commerce agentic' qui automatisent les achats. Cette mesure permet à eBay d'engager des poursuites judiciaires contre les contrevenants tout en laissant de la place à ses propres développements IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser