
رسمت ويكيبيديا خطاً أحمر واضحاً: لا مكان للمحتوى المُولّد بالذكاء الاصطناعي على المنصة. القرار الذي اتخذته الموسوعة العالمية يحظر المقالات المكتوبة بـ LLM تماماً، في موقف حازم حول دور الذكاء الاصطناعي في إنتاج المعلومات.
المؤيدون للقرار يحتجون بأن ويكيبيديا بُنيت على مبدأ الموثوقية والتحقق من المصادر، وأن النماذج اللغوية الكبيرة تنتج معلومات قد تبدو مقنعة لكنها تفتقر للدقة الواقعية. المصدر الأصلي يشير إلى أن هذا القرار يعكس قلقاً متزايداً حول “هلوسة” الذكاء الاصطناعي وتأثيرها على جودة المعلومات. المحررون يخشون من تدفق محتوى يصعب التمييز بينه وبين الكتابة البشرية، لكنه قد يحمل أخطاء واقعية خطيرة.
لكن الطرف الآخر يرى في القرار تشدداً مبكراً قد يحرم المنصة من إمكانيات هائلة. الذكاء الاصطناعي يمكن أن يساعد في ترجمة المقالات، تحديث البيانات القديمة، أو حتى إنشاء هياكل أولية للمقالات يراجعها المحررون البشر لاحقاً. وهذا ما يجعل المسألة أعمق من مجرد “حظر أم لا” — إنها تتعلق بكيفية تطور علاقتنا مع الأدوات الذكية في إنتاج المعرفة.
الواقع أن قرار المحررين السابق كان إشارة مبكرة لهذا التوجه، لكن التطبيق الصارم الآن يطرح تساؤلاً جوهرياً: هل نحن نحمي جودة المعلومات أم نقاوم تطوراً حتمياً؟ بالنسبة لمنطقتنا العربية، حيث المحتوى العربي على ويكيبيديا يحتاج لجهود مضاعفة، قد يكون الذكاء الاصطناعي أداة لسد فجوات المحتوى — لكن تحت رقابة بشرية صارمة.
موقف ويكيبيديا ليس مجرد قرار تقني — إنه رسالة واضحة أن الثقة في المعلومات لا تزال حكراً على العقل البشري، حتى لو كان ذلك على حساب الكفاءة والسرعة.




