
بقلم جون ب. ديزموند، محرر AI Trends
تُعد البنية التحتية للذكاء الاصطناعي التي حددتها جامعة كارنيغي ميلون أساساً للنهج الذي يتبناه الجيش الأمريكي في تطوير منصته الخاصة بالذكاء الاصطناعي، وفقاً لإساك فابر، كبير علماء البيانات في مركز دمج الذكاء الاصطناعي بالجيش الأمريكي، خلال مشاركته في فعالية “عالم الذكاء الاصطناعي للحكومات” التي انعقدت حضوريًا وافتراضيًا من ألكسندريا، فيرجينيا.
قال فابر: “إذا أردنا نقل الجيش من الأنظمة القديمة إلى التحديث الرقمي، فإن أحد أكبر التحديات التي واجهتها هو صعوبة تجريد الاختلافات بين التطبيقات”. وأضاف: “أهم جزء في التحول الرقمي هو الطبقة الوسطى، وهي المنصة التي تسهّل تشغيل التطبيقات سواء على الحوسبة السحابية أو على الحاسوب المحلي”. وتكمن الرغبة في القدرة على نقل منصة البرامج بسهولة تشبه نقل جهات الاتصال والتاريخ عند تبديل الهاتف الذكي.
تتخلل المبادئ الأخلاقية جميع طبقات مكدس تطبيقات الذكاء الاصطناعي بدءًا من مرحلة التخطيط، مرورًا بدعم القرار، النمذجة، تعلم الآلة، إدارة البيانات الضخمة، ووصولاً إلى طبقة الأجهزة أو المنصة في القاعدة.
وأضاف فابر: “أدعو إلى التفكير في مكدس الذكاء الاصطناعي كبنية تحتية أساسية وطريقة لنشر التطبيقات، وليس كعزلة منفصلة. نحن بحاجة إلى خلق بيئة تطوير تدعم قوة عمل موزعة عالميًا”.
ويعمل الجيش على تطوير منصة برمجيات بيئة تشغيل مشتركة (Coes)، أعلن عنها لأول مرة في 2017، وهي تصميم قابل للتوسع، مرن، معياري، محمول ومفتوح المصدر، مناسب لمجموعة واسعة من مشاريع الذكاء الاصطناعي. وأكد فابر أن “النجاح يكمن في التفاصيل الدقيقة”.
يتعاون الجيش مع جامعة كارنيغي ميلون وعدد من الشركات الخاصة منها Visimo في ولاية بنسلفانيا التي تتخصص في خدمات تطوير الذكاء الاصطناعي. وأكّد فابر أنه يفضل التنسيق مع القطاع الخاص بدلاً من شراء منتجات جاهزة، كون الأخيرة غالبًا ما تكون غير مصممة لمواجهة تحديات شبكات وزارة الدفاع.
تدريب فرق تقنية متخصصة في الذكاء الاصطناعي
تشمل جهود تطوير القوى العاملة في الجيش فرقًا مختلفة:
– القيادة وأصحاب الدرجات العلمية العليا.
– الطاقم الفني الذي يخضع لتدريبات وشهادات تخصص.
– مستخدمو الذكاء الاصطناعي.
تركز هذه الفرق على مجالات متعددة مثل تطوير البرمجيات العامة، علم البيانات العملياتي، النشر بما في ذلك التحليلات، وفِرَق تشغيل تعلم الآلة، كمجموعة كبيرة مسؤولة عن بناء نظام رؤية الحاسوب.
قال فابر: “الأفراد في القوى العاملة بحاجة إلى مكان للتعاون والبناء والمشاركة”.
أنواع المشاريع:
– التشخيصية: دمج تدفقات بيانات تاريخية.
– التنبؤية والوصفية: تقديم توصيات بناءً على التنبؤات.
وأضاف فابر: “الذكاء الاصطناعي هو المرحلة النهائية، وليس نقطة البداية. على المطور حل ثلاث مشكلات أساسية: هندسة البيانات، منصة تطوير الذكاء الاصطناعي (الفقاعة الخضراء)، ومنصة النشر (الفقاعة الحمراء)”.
وأوضح: “هذه المجالات منفصلة لكنها مترابطة، ويجب على الفرق المختصة التنسيق برمجيًا. عادةً ما يحتوي فريق المشروع الجيد على أفراد من كل هذه المجالات”. وحذر: “لا تبدأ بحل مشكلة الفقاعة الخضراء ما لم تكن لديك حاجة تشغيلية واضحة”.
صعوبة التواصل مع القيادة التنفيذية
عندما سُئل عن أصعب الفئات في التدريب، أجاب فابر بلا تردد: “المديرون التنفيذيون، فهم بحاجة إلى فهم القيمة التي يقدمها نظام الذكاء الاصطناعي. التحدي الأكبر هو كيفية توصيل هذه القيمة”.
مناقشة حالات استخدام واعدة ومستقبلية
في جلسة بعنوان “أسس الذكاء الاصطناعي الناشئ”، سأل كيرت سافوي، مدير برنامج استراتيجيات المدن الذكية لدى IDC، عن أكثر حالات استخدام الذكاء الاصطناعي الواعدة.
قال جان-تشارلز ليده، مستشار تقني الأنظمة المستقلة في القوات الجوية الأمريكية: “أشير إلى مزايا القرار على الحافة لدعم الطيارين والمشغلين، وقرارات التخطيط للمهام والموارد في الخلف”.
وأوضحت كريستا كنارد، رئيسة التكنولوجيا الناشئة في وزارة العمل الأمريكية، أن “معالجة اللغة الطبيعية تفتح الباب أمام تطبيقات الذكاء الاصطناعي في الوزارة، حيث نتعامل مع بيانات الأشخاص والبرامج والمنظمات”.
مخاطر الذكاء الاصطناعي
ذكر أنيل تشاودهري، مدير تنفيذ مشاريع الذكاء الاصطناعي الفيدرالية في الإدارة العامة للخدمات، أن التغيير في خوارزميات الذكاء الاصطناعي يمكن أن يؤثر على ملايين الأشخاص، مما يشكل خطراً كبيراً. وأكد على ضرورة وجود “البشر في الحلقة وحول الحلقة” لضمان مراقبة تأثيرات الذكاء الاصطناعي.
وأكدت كنارد أهمية عدم استبعاد البشر من العمليات، مشددة على تمكينهم لاتخاذ قرارات أفضل، كما أشارت إلى ضرورة متابعة أداء النماذج بعد نشرها لضمان دقة النتائج.
أشار ليده إلى تحدٍ يتمثل في فجوة المحاكاة مقابل الواقع، حيث يُستخدم المحاكاة عندما لا تتوفر بيانات حقيقية، مما يشكل مخاطرة في تدريب الخوارزميات.
وحذر تشاودهري من افتتان المطورين بالأدوات دون التركيز على الهدف من المشروع، مشددًا على أهمية تصميم استراتيجية تحقق وتحقق مستقلة، وتوجيه الطاقة والموارد للاختبار.
وفيما يتعلق بتفسير قرارات الذكاء الاصطناعي، قال ليده: “أنا متخصص تقني وليس قانونيًا، لذلك فإن قابلية التفسير تمكن البشر من التفاعل مع الذكاء الاصطناعي كشريك والحوار معه، بدلاً من الحصول على نتائج لا يمكن التحقق منها”.
لمزيد من التفاصيل، يمكن متابعة فعاليات AI World Government.
_________
المصدر: https://www.aitrends.com/ai-world-government/best-practices-for-building-the-ai-development-platform-in-government/




