تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b9190: تحسين Router والإصدارات الكاملة لـ 27 منصة

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

يطرح فريق ggml-org الإصدار b9190 من llama.cpp مع تحديث تقني أساسي يحل مشكلة تخصيص الذاكرة في Router Server عبر نقل buffer المؤقت من stack إلى heap، مما يعزز استقرار الخادم تحت الأحمال العالية.

هذا التحسين الداخلي يأتي مع إصدارات محدثة تغطي طيفاً واسعاً من المنصات والبيئات. للمطورين العاملين على macOS، تتوفر ثلاث نسخ متخصصة: Apple Silicon العادي، Apple Silicon مع تفعيل KleidiAI للأداء المحسن، و Intel x64 للأجهزة الأقدم. مطوري iOS يحصلون على XCFramework جاهز للدمج في تطبيقات الجوال.

  1. Linux Ubuntu — تسع إصدارات تشمل CPU عادي لـ x64/arm64/s390x، Vulkan للرسوميات المتقدمة، ROCm 7.2 لبطاقات AMD، OpenVINO 2026.0 لمعالجات Intel، وSYCL بدقة FP32/FP16
  2. Windows — سبع حزم تغطي CPU x64/arm64، CUDA 12.4/13.1 مع مكتبات منفصلة، Vulkan، SYCL، وHIP لبطاقات Radeon
  3. Android — حزمة arm64 CPU للتطبيقات المحلية على الهواتف الذكية
  4. openEuler — أربع نسخ للنظام الصيني تشمل x86/aarch64 لمعالجات 310p و910b مع تحسينات ACL Graph الخاصة

التنوع الملفت في منصات openEuler يشير لتوجه استراتيجي نحو الأسواق الآسيوية، خاصة مع تحسينات ACL Graph المتخصصة للمعالجات 910b. المطورون يحصلون الآن على 27 خياراً مختلفاً، لكن اختيار الحزمة المناسبة يتطلب فهماً دقيقاً لمتطلبات البيئة التقنية — فنسخة SYCL FP16 مثلاً تقدم سرعة أعلى مقابل دقة أقل في العمليات الحسابية.

GitHub

مقالات ذات صلة

زر الذهاب إلى الأعلى