حظرت ويكيبيديا استخدام النماذج اللغوية الكبيرة في إنشاء أو إعادة صياغة محتوى المقالات، مشيرة إلى انتهاكها لسياسات المحتوى الأساسية. ويُسمح بالتعديلات الأساسية مثل تصحيح الأخطاء المطبعية وبعض ترجمات المقالات وفق شروط صارمة، بينما لا تزال تفاصيل تنفيذ هذه السياسة غير واضحة.
قامت موسوعة ويكيبيديا، وهي موسوعة إلكترونية مفتوحة المصدر، بتحديث سياسة التحرير الخاصة بها لحظر النصوص التي تُنشئها النماذج اللغوية الكبيرة مثل ChatGPT وGoogle Gemini. وتنص السياسة على أن هذا المحتوى المولد بواسطة الذكاء الاصطناعي 'غالبًا ما ينتهك العديد من سياسات المحتوى الأساسية في ويكيبيديا'، مما يحظر استخدامه في إنشاء المقالات أو إعادة صياغتها إلا في حالات محدودة. وتهدف هذه الخطوة إلى الحفاظ على اعتماد المنصة على مصادر موثوقة وقابلة للتحقق في ظل صعود أدوات الذكاء الاصطناعي في إنشاء المحتوى. وتشمل الاستثناءات التعديلات الأساسية للغاية، مثل تصحيح الأخطاء المطبعية أو تعديل التنسيق، ولكن فقط للمقالات التي كتبها المحرر بنفسه وبعد مراجعتها من قبل متطوع أو مسؤول في ويكيبيديا. وحتى في هذه الحالة، يتم تحذير المحررين من أن الذكاء الاصطناعي قد يغير المعاني بشكل غير دقيق. كما يُسمح بترجمة المقالات الكاملة من إصدارات لغات أخرى من ويكيبيديا إلى الإنجليزية، بشرط أن يكون المترجم متمكناً من اللغتين ويلتزم بجميع السياسات. تعكس صفحة سياسة التحرير في ويكيبيديا هذا التغيير، على الرغم من أن تاريخ التنفيذ الدقيق غير واضح، حيث لم يستجب ممثل عن المنصة للاستفسارات. في العام الماضي، حثت مؤسسة ويكيميديا شركات الذكاء الاصطناعي على التوقف عن جمع بيانات ويكيبيديا واستخدام واجهة برمجة تطبيقات المؤسسة (Enterprise API) للوصول إلى المحتوى بشكل مستدام مع دعم مهمة المؤسسة غير الربحية. ولا توجد تفاصيل حول آليات التنفيذ أو العقوبات المترتبة على الانتهاكات في السياسة. يؤكد هذا القرار المخاوف المستمرة بشأن دقة الذكاء الاصطناعي والأخطاء والانتحال، حتى مع دمج هذه الأدوات في الهواتف الذكية وخدمات مثل Apple Intelligence وGalaxy AI.