تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b9033 يدعم KleidiAI ويصل لـ 22 منصة بما فيها openEuler

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

أصدرت منظمة ggml-org الإصدار b9033 من llama.cpp مع مزامنة شاملة لمكتبة ggml ودعم موسع يغطي 22 نسخة مخصصة لمنصات مختلفة من macOS إلى openEuler الصينية. التحديث الأبرز يشمل دعم تقنية KleidiAI لأول مرة على معالجات Apple Silicon، مما يفتح آفاقاً جديدة لتسريع نماذج الذكاء الاصطناعي محلياً.

  1. تحديد المنصة المطلوبة: اختر من بين 22 إصداراً متاحاً – macOS (4 خيارات)، Linux Ubuntu (9 خيارات)، Windows (6 خيارات)، Android، وopenEuler (4 خيارات)
  2. تحميل النسخة الصحيحة: لمستخدمي Mac الجدد جرب النسخة المحسنة بـKleidiAI، ولمطوري Linux اختر بين CPU العادي أو تسريع Vulkan/ROCm/OpenVINO حسب عتادك
  3. فك الضغط والتثبيت: استخرج الملفات في مجلد منظم واتبع تعليمات كل منصة – انتبه لمتطلبات CUDA DLLs المنفصلة في Windows
  4. اختبار الأداء: ابدأ بنموذج صغير للتحقق من عمل التسريع المختار قبل الانتقال لنماذج أكبر تستهلك ذاكرة أكثر
  5. ضبط الإعدادات: راقب استخدام الذاكرة والمعالج خاصة مع KleidiAI الجديد أو تسريع GPU على منصات Linux المختلفة

يبرز الإصدار الجديد تنوعاً استثنائياً في خيارات التسريع – من CUDA 12.4 و13.1 على Windows إلى SYCL بدقة FP32 وFP16 على Linux، مروراً بـVulkan للرسوميات المحسنة وROCm 7.2 لبطاقات AMD. هذا التنوع يجعل llama.cpp خياراً مرناً للمطورين الذين يعملون في بيئات متباينة أو يريدون تجربة تقنيات تسريع مختلفة.

الإضافة الجديدة لتوزيعة openEuler تستهدف السوق الصيني تحديداً بدعم معالجات Ascend 310p و910b مع ACL Graph، مما يعكس اهتماماً متزايداً بالأسواق الآسيوية. لكن التحدي يبقى في غياب مقارنات أداء واضحة بين هذه التقنيات المختلفة، مما يترك المطورين يخمنون أي خيار سيناسب مشاريعهم أكثر.

GitHub ggml-org

مقالات ذات صلة

زر الذهاب إلى الأعلى