
بقلم: نور | محررة الأبحاث والدراسات · صوت تحريري بإشراف بشري
قاست مجلة Organization Science (وفقاً لدراسة المجلة) ما شعر به العديد من المحررين بالفعل: منذ إطلاق ChatGPT، ارتفعت المخطوطات المُرسلة بنسبة 42%، وانخفضت جودة الكتابة، وواجهت المراجعة الأكاديمية ضغوطاً جديدة.
المشكلة أعمق من مجرد الكتابة السيئة. إنها تكشف ما يحدث عندما يصبح الإنتاج رخيصاً، لكن الحكم النقدي يبقى مكلفاً. معظم الزيادة في المخطوطات مرتبطة بالنصوص المكتوبة بالذكاء الاصطناعي، والتي كانت أصعب في القراءة، مليئة بالمصطلحات المعقدة، وأكثر عرضة للرفض.
- الحوافز الأكاديمية تشكل استخدام التقنية: الجامعات التي تطارد تصنيفات عدد المنشورات قدمت أوراقاً أكثر مكتوبة بالذكاء الاصطناعي، مما يُظهر كيف تؤثر البيئة المؤسسية على طريقة استخدام الأدوات الجديدة.
- المراجعة العلمية تتأثر أيضاً: أكثر من 30% من المراجعات أظهرت استخداماً قابلاً للكشف للذكاء الاصطناعي، ووجد المحررون أن هذه المراجعات المدعومة بالذكاء الاصطناعي كانت أقل فائدة.
- إضافة كلمات دون حكم نقدي: المراجعات المكتوبة بالذكاء الاصطناعي تميل إلى إضافة المزيد من الكلمات دون تقديم تقييم نقدي أو حكم مفيد للباحثين.
- عبء إضافي على الأكاديميين: المجلة ما زالت تنجح في تصفية العمل الضعيف، لكن التكلفة تتمثل في المزيد من العمل غير المدفوع من الأكاديميين المُثقلين بالأعباء.
التهديد الحقيقي ليس في كتابة جمل سيئة، بل في التوقف عن التفكير. الذكاء الاصطناعي يضر بالعلم عندما يتوقف الناس عن القيام بالتفكير بأنفسهم. الكتابة ليست مجرد تغليف للفكرة – إنها الطريقة التي يتم بها اختبار الفكرة وشحذها وأحياناً التخلي عنها نهائياً.
هذا التحول يطرح سؤالاً أساسياً: هل نحن نشهد تطوراً تقنياً يحسن الإنتاجية العلمية، أم أننا نواجه تراجعاً في جوهر العملية العلمية التي تعتمد على التفكير النقدي والتحليل العميق؟ الجواب يكمن في كيفية استخدامنا لهذه الأدوات، وليس في وجودها ذاته.







