تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b8996 يصلح WebGPU ويوسع الدعم لـ26 إصدار

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

تواجه مطوري الذكاء الاصطناعي تحدياً مستمراً في تحسين أداء النماذج على معالجات الرسوميات المختلفة، وقد طرح فريق llama.cpp الإصدار b8996 كحل مباشر لمشاكل WebGPU المعلقة، مع توسيع نطاق الدعم ليشمل 26 إصداراً محملاً مسبقاً عبر كافة الأنظمة والمسرعات.

الإصدار الجديد يستهدف تحديداً إصلاح الأخطاء في معالجة البيانات الشعاعية ضمن pipeline mul-mat-fast، حيث كانت الشروط الخاصة بالمعالجة المتوازية تحد من الأداء الأمثل على WebGPU. وفقاً لمخزن llama.cpp الرسمي، التحديث يضيف متغيراً شعاعياً محسناً لعملية mul-mat-id المستخدمة بكثافة في نماذج خليط الخبراء.

ما يميز هذا الإصدار هو الشمولية في دعم الأنظمة والمعماريات. على macOS، يتوفر للمرة الأولى دعم مكتبة KleidiAI على معالجات Apple Silicon، إلى جانب الإصدارات التقليدية لمعمارية x64 ودعم iOS XCFramework للتطبيقات المحمولة. بينما على Linux، يوفر الإصدار 9 خيارات متنوعة تشمل المعمارية النادرة s390x ودعم ROCm 7.2 لبطاقات AMD الحديثة.

أما Windows فيحصل على دعم CUDA 13.1 للمرة الأولى، مع ملفات DLL منفصلة لكل إصدار CUDA، بالإضافة لخيارات SYCL وHIP المحسنة لمعالجات Radeon. الإصدار يتضمن أيضاً دعماً متخصصاً لنظام openEuler مع معالجات 310p و910b المدعومة بتقنية ACL Graph، مستهدفاً بيئات المؤسسات الصينية تحديداً.

للمطورين الذين يعتمدون على الأجهزة المحمولة، يوفر الإصدار دعماً أصلياً لنظام Android بمعمارية arm64، مما يفتح المجال لتشغيل النماذج اللغوية الكبيرة محلياً على الهواتف الذكية دون الحاجة للاتصال بالإنترنت.

التحسينات التقنية تركز على الحوسبة المتوازية، حيث كانت العمليات الحسابية في mul-mat-fast pipeline تعاني من قيود في المعالجة الشعاعية. هذه الإصلاحات مهمة بشكل خاص للمطورين الذين يستخدمون WebGPU كبديل للمسرعات التقليدية، خاصة في البيئات السحابية أو المتصفحات الحديثة.

رغم هذه التحسينات الواسعة، يبقى الأداء الفعلي على WebGPU بحاجة لاختبارات عملية، خاصة مع النماذج الكبيرة التي تتطلب ذاكرة تتجاوز إمكانيات معالجات الرسوميات المتوسطة. كما أن دعم KleidiAI الجديد على macOS يحتاج لمقارنات أداء شاملة لتحديد مدى التحسن مقارنة بالإصدارات التقليدية.

llama.cpp GitHub

مقالات ذات صلة

زر الذهاب إلى الأعلى