
قررت منصة ويكيبيديا بنسختها الإنجليزية تقييد استخدام أدوات الذكاء الاصطناعي التوليدي في كتابة المقالات أو إعادة صياغتها، بهدف حماية جودة المحتوى والالتزام بسياسات النشر الأساسية.
وأوضحت المنصة أن الاعتماد على هذه الأدوات قد يؤدي إلى انتهاك عدد من قواعدها الجوهرية؛ إذ يمكن للنماذج اللغوية إنتاج معلومات غير دقيقة أو غير مدعومة بالمصادر، حتى عند استخدامها لأغراض تحريرية بسيطة.
وتسمح السياسة الجديدة باستخدام النماذج اللغوية الكبيرة (LLMs) في نطاق ضيق، مثل تحسين صياغة النصوص التي يكتبها المحررون بأنفسهم، بشرط مراجعة المحتوى بدقة والتحقق من مطابقته المصادر، كما يُسمح باستخدامها في الترجمة، بشرط أن يكون المستخدم ملمًا باللغتين لرصد الأخطاء المحتملة.
وتحذر المنصة من أن هذه النماذج قد تغيّر المعنى الأصلي للنص أو تضيف معلومات غير موثّقة، مما يفرض تدقيقًا بشريًا إلزاميًا قبل النشر.
وواجهت ويكيبيديا خلال العامين الماضيين انتشارًا للمحتوى الضعيف الجودة المولّد بالذكاء الاصطناعي، كما اشتكى محررون من وجود أخطاء معلوماتية ومراجع وهمية في هذه المقالات، مما زاد عبء المراجعة البشرية، وأثار مخاوف بشأن مصداقية المنصة على المدى الطويل.
مواقف متباينة بين نسخ ويكيبيديا
لا تُعد ويكيبيديا كيانًا موحدًا من ناحية السياسات؛ إذ تمتلك كل نسخة لغوية قواعدها الخاصة؛ ففي حين تعتمد النسخة الإنجليزية نهجًا تقييديًا مع بعض الاستثناءات، اتخذت النسخة الإسبانية موقفًا أكثر تشددًا بحظر استخدام هذه الأدوات بنحو كامل دون استثناءات.