تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
أخبار الذكاء الاصطناعي

ArXiv تحظر الباحثين الذين يملؤون الأوراق البحثية بمخرجات الذكاء الاصطناعي غير المراجعة

بقلم: نور | محررة الأبحاث والدراسات · صوت تحريري بإشراف بشري

تواجه المنصة البحثية الأشهر عالمياً ArXiv مشكلة متنامية من الأوراق البحثية المملوءة بمحتوى مُولد من الذكاء الاصطناعي دون مراجعة، ما دفعها لاتخاذ موقف حاسم بحظر الباحثين المخالفين لمدة عام كامل. القرار الذي أعلنه توماس ديترش، رئيس قسم علوم الكمبيوتر في ArXiv، يستهدف الأوراق التي تحتوي على “أدلة لا تقبل الجدل” أن المؤلفين لم يراجعوا مخرجات نماذج اللغة الكبيرة قبل النشر.

تشمل هذه الأدلة المراجع المُختلقة والتعليقات الوصفية التي تتركها نماذج LLM مثل “إليك ملخص من 200 كلمة، هل تريد مني إجراء أي تغييرات؟” أو “البيانات في هذا الجدول توضيحية، املأها بالأرقام الحقيقية من تجاربك”. هذه العلامات الواضحة تكشف أن الباحثين نسخوا المحتوى مباشرة من أدوات الذكاء الاصطناعي دون أدنى مراجعة أو تدقيق.

العقوبة الجديدة تفرض حظراً لمدة عام واحد من النشر على ArXiv، يتبعه شرط أن تكون الإرسالات المستقبلية مقبولة مسبقاً في “مكان محكم ومراجع من قبل الأقران ذو سمعة جيدة” (وفقاً لتوماس ديترش). هذا يعني عملياً أن الباحثين المخالفين سيفقدون ميزة النشر السريع على ArXiv ويُجبرون على المرور عبر عملية المراجعة التقليدية الأطول.

لكن السياسة الجديدة تطرح تساؤلات حول التوازن بين محاربة المحتوى المُولد آلياً والسماح بالاستخدام المسؤول لأدوات الذكاء الاصطناعي في البحث العلمي. المشكلة الأساسية ليست في استخدام LLM ذاته، بل في عدم تحمل المؤلفين المسؤولية الكاملة عن المحتوى كما ينص ميثاق السلوك في ArXiv. الباحثون مسؤولون عن كل محتوى يضعون أسماءهم عليه، سواء كان مُولداً بشرياً أم آلياً.

ديترش أوضح أن السياسة ستُطبق فقط على “حالات الأدلة التي لا تقبل الجدل” وأن العملية الداخلية تتطلب أولاً توثيق المشكلة من قبل مشرف، ثم تأكيد رئيس القسم قبل فرض العقوبة. المؤلفون يحتفظون بحق الطعن في قرارات الحظر (وفقاً لـ 404Media)، ما يوفر شبكة أمان ضد القرارات الخاطئة.

المشكلة أعمق من مجرد أخطاء تقنية. العام الماضي، حدثت ArXiv سياساتها لتقليل ما يُسمى “AI slop” بالسماح فقط بنشر مقالات المراجعة وأوراق المواقف في علوم الكمبيوتر إذا كانت محكمة ومقبولة في مؤتمر أو مجلة. السبب أن “ظهور نماذج اللغة الكبيرة جعل هذا النوع من المحتوى سهل الإنتاج حسب الطلب، وأغلبية مقالات المراجعة التي نتلقاها ليست أكثر من ببليوغرافيات مُعلقة، دون مناقشة جوهرية لقضايا البحث المفتوحة” (وفقاً لـ ArXiv).

هذا التطور يعكس تحدياً أوسع يواجه النشر الأكاديمي في عصر الذكاء الاصطناعي التوليدي. المراجعة الأكاديمية نفسها تغرق في الأوراق المُولدة آلياً، ما يخلق دورة مدمرة حيث المحتوى المُولد آلياً يُراجع من قبل أنظمة قد تعتمد هي الأخرى على الذكاء الاصطناعي.

النهج الجديد لـ ArXiv يمثل محاولة جريئة لإعادة التوازن، لكنه يضع عبء الإثبات على الباحثين أنفسهم. عليهم الآن أن يُثبتوا مراجعتهم الدقيقة لأي محتوى مُولد آلياً، وهذا معيار صعب القياس والتطبيق العادل عبر آلاف الإرسالات الشهرية. الخط الفاصل بين الاستخدام المسؤول والإهمال المدمر للذكاء الاصطناعي في البحث أصبح أكثر وضوحاً، لكن تنفيذه عملياً سيختبر قدرة المجتمع البحثي على التكيف مع العصر الجديد.

The Verge

مقالات ذات صلة

زر الذهاب إلى الأعلى