ウィキペディアは、核心的なコンテンツポリシーへの違反を理由に、大規模言語モデルを使用して記事を作成または書き直すことを禁止した。誤字脱字の修正や特定の記事翻訳といった基本的な編集は、厳格な条件下で許可される。ポリシーの施行に関する詳細は依然として不明である。
オープンソースのオンライン百科事典であるウィキペディアは、編集ポリシーを更新し、ChatGPTやGoogle Geminiといった大規模言語モデルによって生成されたテキストを禁止した。ポリシーでは、こうしたAI生成コンテンツは「ウィキペディアの核心的なコンテンツポリシーのいくつかに頻繁に抵触する」と指摘しており、限られたケースを除き、記事の生成や書き直しへの使用を禁止している。この措置は、AIツールがコンテンツ制作に普及する中で、信頼性が高く検証可能な情報源に対するプラットフォームの依存性を維持することを目的としている。例外として認められるのは、誤字脱字の修正や書式の調整といったごく基本的な編集だが、それも編集者自身が執筆した記事に限定され、かつウィキペディアのボランティアや管理者のレビューを経たものに限られる。その場合でも、AIが意図せず意味を変えてしまう可能性があるため、編集者は注意を促されている。また、ウィキペディアの他言語版から英語への全編翻訳も許可されているが、翻訳者が両言語に精通しており、すべてのポリシーを遵守していることが条件となる。ウィキペディアの編集ポリシーページにはこの変更が反映されているが、正確な施行日は不明であり、代表者は問い合わせに応じていない。昨年、ウィキメディア財団はAI企業に対し、ウィキペディアのデータスクレイピングを停止し、非営利団体の使命を支援しつつ持続可能な方法でコンテンツにアクセスするためにEnterprise APIを使用するよう促していた。ポリシーには、違反に対する施行や罰則に関する具体的な内容は示されていない。この決定は、Apple IntelligenceやGalaxy AIといったスマートフォンやサービスにこうしたツールが統合されつつある中でも、AIの正確性、誤り、盗用に対する継続的な懸念を浮き彫りにしている。