
كشفت تقارير أن أوبن إيه آي تعمل على تجربة ميزة جديدة تُسمّى «الاعترافات» (Confessions)، تهدف إلى جعل النماذج اللغوية مثل شات جي بي تي أكثر شفافية بعد إصدار الإجابات. وتقوم الفكرة على أن يقدّم النموذج، بعد انتهاء رده، تقييمًا ذاتيًا يوضح إلى أي مدى التزم بالتعليمات وما إذا كانت هناك نقاط محتملة للخطأ أو عدم الدقة.
وتسعى الشركة من خلال هذه الميزة إلى تسهيل مهمة التحقق والمراجعة، خصوصًا في سياقات العمل التي تستلزم دقة عالية. ومع أن هذه الآلية لا تلغي الأخطاء بالكامل باعتبار النماذج تعتمد على احتمالات التنبؤ بالكلمات إلا أنها تمنح المستخدم مؤشرًا واضحًا على جودة الاستجابة.
ويرى محللون أن هذا التوجه يتماشى مع موجة اهتمام أوسع حول قابلية التفسير (Explainability) وشفافية الذكاء الاصطناعي، إذ تبحث المؤسسات عن طرق لمعرفة كيفية توصل النماذج إلى إجاباتها، وتقييم المخاطر المرتبطة باستخدامها في اتخاذ القرارات.
كما قد تساعد هذه الميزة في الحد من ظاهرة الهلوسة، عبر دفع النماذج إلى تحليل امتثالها للتعليمات بشكل منهجي، ما يشجع المستخدمين على مراجعة الردود بدل الاعتماد عليها بشكل كامل. وتأتي التجربة في وقت تتزايد فيه المطالب بوضع ضوابط أكثر وضوحًا ضمن جهود تنظيم الذكاء الاصطناعي.
ورغم أن التقنية لا تزال في مراحلها التجريبية، يتوقع خبراء أن تصبح هذه الممارسات معيارًا لدى الشركات المطوّرة للنماذج، مع توجه الصناعة نحو بناء أدوات أكثر موثوقية وتقييمًا ذاتيًا.
📌 الملخص:
أوبن إيه آي تختبر ميزة «الاعترافات» حيث يقيّم شات جي بي تي مدى التزامه بالتعليمات بعد كل رد، بهدف تحسين الشفافية وتسهيل التحقق.




