Wikipédia a interdit l'utilisation de modèles de langage étendus pour créer ou réécrire le contenu des articles, invoquant des violations des politiques fondamentales en matière de contenu. Les modifications de base, telles que la correction de fautes de frappe et certaines traductions d'articles, sont autorisées sous des conditions strictes. Les détails de l'application de cette politique restent flous.
Wikipédia, l'encyclopédie en ligne open source, a mis à jour sa politique d'édition afin d'interdire les textes générés par des modèles de langage étendus tels que ChatGPT et Google Gemini. La politique stipule qu'un tel contenu généré par l'IA « viole souvent plusieurs des politiques fondamentales de Wikipédia en matière de contenu », interdisant son utilisation pour générer ou réécrire des articles, sauf dans des cas limités. Cette mesure vise à maintenir la dépendance de la plateforme à l'égard de sources fiables et vérifiables face à l'essor des outils d'IA dans la création de contenu. Les exceptions incluent des modifications très basiques, telles que la correction de fautes de frappe ou l'ajustement de la mise en forme, mais uniquement pour des articles rédigés par l'éditeur lui-même et après examen par un bénévole ou un administrateur de Wikipédia. Même dans ce cas, les éditeurs sont avertis que l'IA pourrait modifier les sens de manière inexacte. Les traductions complètes d'articles à partir d'autres versions linguistiques de Wikipédia vers l'anglais sont également autorisées, à condition que le traducteur maîtrise les deux langues et respecte toutes les politiques. La page de politique d'édition de Wikipédia reflète ce changement, bien que la date exacte de mise en œuvre ne soit pas claire, un représentant n'ayant pas répondu aux demandes de renseignements. L'année dernière, la Wikimedia Foundation a exhorté les entreprises d'IA à cesser d'extraire les données de Wikipédia et à utiliser plutôt son API Enterprise pour accéder au contenu de manière durable tout en soutenant la mission de l'organisation à but non lucratif. Aucune précision sur l'application ou les sanctions en cas de violation ne figure dans la politique. Cette décision souligne les préoccupations persistantes concernant la précision de l'IA, les erreurs et le plagiat, alors même que ces outils s'intègrent aux smartphones et à des services tels qu'Apple Intelligence et Galaxy AI.