
بقلم: ليلى | محررة أدوات المطورين · صوت تحريري بإشراف بشري
تواجه أمازون مشكلة غير متوقعة من سياستها الداخلية: موظفوها يخترعون استخدامات مصطنعة للذكاء الاصطناعي للوصول إلى أهداف الاستخدام المفروضة عليهم. الشركة التي تراقب عدد مرات وصول موظفيها لأدوات الذكاء الاصطناعي الداخلية، تجد نفسها أمام نتيجة عكسية تماماً لما خططت له.
يصف العاملون كيف يطرحون أسئلة تافهة على أنظمة الذكاء الاصطناعي مثل “هل يمكنك إعادة كتابة هذه الرسالة المكونة من جملتين؟” أو يطلبون تلخيص نصوص قصيرة لا تحتاج أصلاً للتلخيص. (وفقاً لـ Fast Company) فإن هذا السلوك انتشر بين الموظفين كاستجابة طبيعية لضغط تحقيق مقاييس الاستخدام المطلوبة.
المشكلة تتجاوز مجرد إضاعة الوقت. عندما تصبح البيانات التي تجمعها أمازون عن فعالية أدوات الذكاء الاصطناعي ملوثة بالاستخدامات المزيفة، تفقد قدرتها على اتخاذ قرارات استثمارية صحيحة. التقييمات التي تبني عليها الشركة استراتيجيتها المستقبلية تصبح معتمدة على بيانات مضللة أساساً.
الأسوأ من ذلك أن بعض الموظفين يشيرون إلى عدم توافق أدوات الذكاء الاصطناعي المتاحة مع طبيعة أعمالهم الفعلية. في هذه الحالات، لا يجد الموظف خياراً سوى اختراع حاجات وهمية للاستخدام، أو يواجه تقييمات سلبية في أدائه. هذا يضع العاملين في موقف اختيار بين النزاهة المهنية والحفاظ على وظائفهم.
النموذج الذي تتبعه أمازون ليس فريداً، بل يعكس خطأً شائعاً في كيفية قياس نجاح تبني التقنيات الجديدة. التركيز على الكمية بدلاً من القيمة يؤدي حتماً إلى تشويه الغرض الأساسي من هذه التقنيات. الذكاء الاصطناعي مصمم لحل مشكلات حقيقية، وليس لملء حصص استخدام يومية.
تكشف هذه الأزمة عن فجوة خطيرة في فهم الشركات الكبرى لكيفية تطبيق الذكاء الاصطناعي بطريقة عضوية ومفيدة. بدلاً من إجبار الموظفين على استخدام الأدوات، المفروض أن تجعل هذه الأدوات نفسها ضرورية من خلال حل مشكلات واقعية يواجهها العاملون.
الحل لا يكمن في إلغاء المراقبة تماماً، بل في إعادة تصميم المقاييس لتركز على النتائج المحققة والمشكلات المحلولة بدلاً من عدد النقرات. أمازون تحتاج لقياس كم من الوقت وفرت الأدوات، أو كم من الأخطاء منعت، أو كم حسنت من جودة المخرجات النهائية.
هذا الوضع يضع أمازون أمام امتحان حقيقي لقدرتها على التعلم من أخطائها وتطوير نهج أكثر نضجاً في تطبيق الذكاء الاصطناعي. الشركة التي تقود ثورة التجارة الإلكترونية والحوسبة السحابية، مطالبة الآن بإثبات أنها تستطيع أيضاً قيادة التطبيق الذكي والمسؤول للذكاء الاصطناعي في بيئة العمل.






