تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b9010 ينهي إهدار البطاقات الرسومية الإضافية في الأنظمة المتعددة

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

كانت تملك 4 بطاقات رسومية قوية لكن llama.cpp يستخدم واحدة فقط؟ الإصدار b9010 الجديد ينهي هذا الإهدار المكلف بإصلاح جذري لآلية كشف PCI bus ID في أنظمة CUDA المتعددة.

المشكلة المحلولة كانت تقنية بحتة — خطأ في تكرار معرفات ناقل PCI يؤدي إلى نفاد ذاكرة مفاجئ وتجاهل كامل للبطاقات الرسومية الإضافية. الإصلاح يغطي معمارية CUDA وHIP وMUSA، ويضمن توزيع الحمولة بكفاءة على الأجهزة المتوفرة بدلاً من إرهاق بطاقة واحدة.

  1. macOS: 5 إصدارات تشمل Apple Silicon عادي ومُسرّع بـKleidiAI، معالجات Intel x64، وحزمة iOS XCFramework
  2. Linux Ubuntu: 9 إصدارات تغطي معالجات x64 وarm64 وs390x مع دعم Vulkan وROCm 7.2 وOpenVINO وSYCL
  3. Windows: 6 إصدارات تشمل CUDA 12.4 وCUDA 13.1 الجديد مع مكتبات DLL منفصلة، ودعم Vulkan وSYCL وHIP
  4. Android: إصدار arm64 محسّن للهواتف والأجهزة اللوحية
  5. openEuler: 4 إصدارات تستهدف معالجات Ascend 310p و910b مع تقنية ACL Graph المتقدمة

التطور المهم هو دعم openEuler — توزيعة لينوكس صينية تستخدم في البنية التحتية الحكومية والصناعية. معالجات Ascend من هواوي تنافس NVIDIA في مراكز البيانات، وإدراجها في llama.cpp يفتح أسواق جديدة للذكاء الاصطناعي المحلي في المناطق التي تفضل الحلول غير الأمريكية. لكن أداء هذه المعالجات مع النماذج الضخمة لا يزال يحتاج اختبارات مستقلة.

GitHub llama.cpp

مقالات ذات صلة

زر الذهاب إلى الأعلى