أخبار الذكاء الاصطناعي

مخاطر الذكاء الاصطناعي تتصدرها «عدم الدقة» في 2025

تقرير جديد يكشف أن 30% من الشركات تعتبر أخطاء الذكاء الاصطناعي أعلى تهديد تشغيلي.

كشفت بيانات حديثة عن أن عدم الدقة في مخرجات أنظمة الذكاء الاصطناعي بما في ذلك الهلوسات والأخطاء النظامية يمثل أبرز المخاطر التي تواجه الشركات في عام 2025، بنسبة وصلت إلى 30% وفق ما أظهره الرسم البياني الصادر عن التقرير. ويعكس هذا القلق المتزايد حاجة المؤسسات إلى تعزيز إجراءات التحقق والمراقبة مع التوسع في اعتماد حلول الذكاء الاصطناعي التوليدي.

ويشير التقرير إلى أن الشركات التي تعتمد على النماذج اللغوية وتقنيات معالجة اللغة الطبيعية تواجه تحديات في دقة الإجابات، ما يؤدي إلى خسائر تشغيلية محتملة وتأثير مباشر على موثوقية القرارات. كما تُعد الأخطاء الناتجة عن الشبكات العصبية في أنظمة التصنيف والتنبؤ من بين أكثر مصادر الخطورة في القطاعات المالية والطبية والخدمية.

ويرى خبراء أن تحسين الدقة يتطلب «تطبيق استراتيجيات واضحة لـ هندسة المطالبات، واعتماد آليات مراجعة بشرية، والاهتمام بعمليات التهيئة الدقيقة للنماذج»، مؤكدين أن تزايد الاعتماد على الذكاء الاصطناعي يستوجب تطويرًا موازيًا في سياسات تنظيم الذكاء الاصطناعي ورفع الوعي بمخاطر الاستخدام غير المُراقب.

ويأتي ذلك في وقت تواصل فيه الشركات الاستثمار في الذكاء الاصطناعي التوليدي لتعزيز الكفاءة والإنتاجية، ما يطرح سؤالاً حول قدرة المؤسسات على تحقيق التوازن بين الابتكار والامتثال والمخاطر.


📌 الملخص:
تقرير 2025 يوضح أن عدم دقة مخرجات الذكاء الاصطناعي تمثل الخطر الأكبر للشركات بنسبة 30%. الخبراء يدعون لتعزيز التحقق البشري ووضع سياسات رقابية للحد من الهلوسات والأخطاء.

مقالات ذات صلة

زر الذهاب إلى الأعلى