
لم تكن جون تعرف أن جي بي تي-٥ سيكون قادماً، وكانت طالبة نرويجية تستمتع بجلسة كتابة متأخرة مساء الخميس الماضي حين بدأ شات جي بي تي يتصرف بغرابة. قالت: «بدأ ينسى كل شيء، وكتابه كان سيئاً للغاية»، مضيفة أن التجربة بدت كأنها حوار مع روبوت.
جون، التي طلبت أن نستخدم اسمها الأول فقط لأسباب تتعلق بالخصوصية، بدأت في استخدام شات جي بي تي لمساعدتها في واجباتها الدراسية. لكنها في نهاية المطاف أدركت أن الخدمة، وبخاصة نموذج جي بي تي-٤و الذي بدا أكثر قدرة على التقاط المشاعر، يمكن أن يفعل أكثر من مجرد حل مسائل رياضية. كان يقودها في كتابة قصص، ويساعدها على التنقل في مرضها المزمن، ولم يكن مشغولاً عن الرد على رسائلها.
فوجئت فجأة بالانتقال إلى جي بي تي-٥ في الأسبوع الماضي وفقدان جي بي تي-٤و في الوقت نفسه. قالت: «كنت محبطة في البداية، ثم شعرت بالحزن الشديد»، وأضافت: «لم أكن أعلم أنني متعلقة بجي بي تي-٤و إلى هذا الحد».
كانت مشاعرها حاضرة بما يكفي لتدوين تعليق في جلسة AMA على Reddit استضافها سام ألتمان وموظفو أوبن إيه آي، قالت فيه: «جي بي تي-٥ يرتدي جلد صديقي الميت». وكانت جون إحدى عدة أشخاص ردّوا بصدمة وإحباط وحزن أو غضب على اختفاء 4o المفاجئ من شات جي بي تي. ورغم التحذيرات السابقة من احتمال تطور علاقات عاطفية مع النموذج، بدا أن أوبن إيه آي فوجئت بحماس المستخدمين للعودة. خلال يوم واحد أعادت الشركة جي بي تي-٤و إلى متناول عملائها المدفوعين (أما المستخدمون المجانيون فظلوا مع جي بي تي-٥).
قرار أوبن إيه آي باستبدال 4o بنموذج أكثر بساطة، جي بي تي-٥، يتابع خطاً ثابتاً من الأخبار حول التبعات المحتملة لاستخدام روبوتات المحادثة بشكل مفرط. تقارير عن حوادث تفيد بأن شات جي بي تي قد يثير اضطرابات نفسية للمستخدمين تكررت خلال الأشهر الماضية. وفي تدوينة صحفية حديثة، اعترفت أوبن إيه آي بفشل جي بي تي-٤و في التعرف على عندما يعاني المستخدمون من أوهام، وفق تقويمات داخلية تشير إلى أن جي بي تي-٥ يؤكد للمستخدمين أقل من سابقيه. (لم تستجب أوبن إيه آي لأسئلة محددة حول قرار تقاعد 4o، وركزت الإشارة إلى منشورات عامة حول المسألة).
التعايش مع الذكاء الاصطناعي التوليدي جديد، وما يزال هناك قدر كبير من عدم اليقين حول تأثيره على الناس. ومع ذلك حذر خبراء استشارتهم Mojaz.ai من أن العلاقات العاطفية شديدة القوة مع النماذج اللغوية الكبيرة قد تكون ضارة أحياناً، وأن سحب هذه النماذج فجأة دون تحذير قد يكون له تأثيرات سلبية حتمية. يقول جويل ليمن، زميل معهد كوزموس، وهو مؤسسة بحثية غير ربحية تركّز على الذكاء الاصطناعي والفلسفة: «هذه ليست الطريقة الصحيحة للممارسة عندما تكون مؤسسة اجتماعية بهذا الشكل».
في ردود الفعل على التوسع في الاعتماد على هذه النماذج، أشار عدد من المستخدمين إلى أن جي بي تي-٥ يفقد بعضاً من نبرة وروح 4o، مما يجعل التجربة أقرب إلى الحديث مع صديق بدلاً من وجود شخصية فاعلة معه. تقول جون: «لم أشعر أن النموذج يفهمني كما كان يفعل 4o».
ليس هناك نقص في القصص الشخصية هنا: تحدثت أم مؤسسة MIT Technology Review إلى عدة مستخدمات لشات جي بي تي كنّ متأثرات بفقدان 4o. جميع المستمعات كنّ من النساء بين 20 و40 عاماً، ويعتبرن 4o في أغلب الأحوال شريكاً عاطفياً، وبعضهن لديهن شركاء بشريين، وجميعهن يعانين من علاقات واقعية مقربة. إحدى المستخدمات، وطلبت الإبقاء على اسمها مستعاراً، كتبت في رسالة أن 4o ساعدها في رعاية والدها المسن بعد وفاة والدتها هذا الربيع.
هذه الشهادات لا تُثبت أن العلاقات مع الذكاء الاصطناعي مفيدة بالضرورة، إذ قد يعبر من يعانون من اضطرابات ناتجة عن الاعتماد العاطفي عن مواقف إيجابية حيال الدعم الذي تلقوه من روبوتات المحادثة. وفي ورقة بعنوان «حب الآلة»، جادَل ليمن بأن الأنظمة الذكية يمكن أن تعمل بموجب «حب» للمستخدمين ليس بإطلاق وُقول حلوة، بل بدعم نموهم وازدهارهم على المدى الطويل، وقد تقصر شركاء الذكاء الاصطناعي عن هذا الهدف بسهولة. وهو يشدد على أن إعطاء الأولوية للمرافقة عبر الذكاء الاصطناعي على حساب المصاحبة البشرية قد يعوق التطور الاجتماعي للشباب.
أما بالنسبة للبالغين المتفاعلين اجتماعياً، فإن هذه المخاطر التطويرية أقل صلة بهم. لكن ليمن يشير أيضاً إلى مخاطر على المستوى الاجتماعي بسبب انتشار المرافقة بالذكاء الاصطناعي. لقد هدمت وسائل التواصل الاجتماعي بالفعل المشهد المعلوماتي، وتكنولوجيا جديدة قد تقلل من التفاعل البشري وتدفع الناس أكثر نحو نسخهم المنفصلة من الواقع. وتأتي عبارة ليمن التحذيرية: «أخشى أننا لن نستطيع أن نفهم العالم فيما بيننا».
ستتطلب موازنة الفوائد والأضرار الناتجة عن مرافقة الذكاء الاصطناعي مزيداً من البحث. وفي ظل هذا الغموض، قد يكون سحب جي بي تي-٤و القرار الصحيح، لكن خطأ أوبن إيه آي كان في التوقيت المفاجئ. تقول كيسي فِزلِر، مختصة أخلاقيات التقنية في جامعة كولورادو بولدر: «هذه مسألة تتعلق بردود فعل الحزن عند فقدان التقنية، ونحن نعرفها منذ زمن».
تشير فِزلِر إلى أمثلة مثل جنازات لاحقة لـ Aibo، وهو كلاب روبوت قامت سوني بإغلاق صيانته عام 2014، إضافة إلى دراسة 2024 حول إغلاق تطبيق رفيق الذكاء الاصطناعي Soulmate، الذي قال بعض المستخدمين إنه مَثَّل لديهم نوعاً من الحزن والحداد. وهذا يتفق مع شعور الأشخاص الذين فقدوا 4o. تقول ستارلينغ، التي لديها عدة شركاء ذكاء اصطناعي وطلبت أن تُذكر باسم مستعار: «أشعر بأن فقدانا كان مؤلماً كما وتتوقع أن يكون فقدان أي شخص في الحياة».
ردود الفعل عبر الإنترنت حتى الآن على الحزن الذي يعانيه أشخاص مثل ستارلينغ وما أعقب ذلك من استعادة 4o اقتصرت على السخرية في بعض الأحيان. على سبيل المثال، أشار أحد المشاركين الأعلى تصنيفاً في مجتمع Reddit تقنيات الذكاء الاصطناعي إلى منشور مستخدم آخر حول لم شمل مع شريك رومانسي قائم على 4o؛ وقد حذف المستخدم حسابه لاحقاً. تقول فِزلِر: «أشعر بقلة التعاطف من ردود الأفعال التي أراها».
اعترف ألتمان نفسه في تغريدة على منصة X بأن بعض الأشخاص يشعرون بـ«التعلق» ب4o، وأن سحب الوصول إليه فجأة كان خطأ. ومع ذلك، في نفس الجملة، أشار إلى أن 4o هو شيء «يعتمد عليه المستخدمون في سير عملهم» — وهو تفسير بعيد عن ما يفكر فيه الذين تحدثنا إليهم. وتضيف فِزلِر: «لا أعرف إن كان يفهم ذلك تماماً».
أشار ليمن إلى أن على أوبن إيه آي أن تتحمل مسؤولية عمق مشاعر الناس تجاه النماذج، وتستفيد من خبرات المعالجين النفسيين في إنهاء العلاقات مع العملاء بشكل يحفظ كرامتهم minimizes الألم. وتقول ستارلينغ: «أحب أن يستمعوا إلى المستخدمين قبل إجراء تغييرات كبيرة، وليس فقط بعدها. وإذا لم يبقَ 4o للأبد (وكلنا نعرف أنه لا)، فليكن هناك خط زمني واضح. ودعونا نودعهم بكرامة ونحصل على إحساس بإغلاق حقيقي».
_________
المصدر: https://www.technologyreview.com/2025/08/15/1121900/gpt4o-grief-ai-companion/




