تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

llama.cpp b8893: دعم محسن لـ AMD مع 24 إصدار

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

فريق llama.cpp يطلق الإصدار b8893 مع قرار تقني مهم: تفعيل HIP Graphs افتراضياً لبطاقات AMD بعد أن ثبت تحسن الأداء مقارنة بالإصدارات السابقة. هذا التغيير يعكس (نضج تقنية ROCm وتحسينات البناء البرمجي) التي جعلت التأثير السلبي السابق شيئاً من الماضي.

الإصدار الجديد يقدم 24 إصداراً متخصصاً عبر منصات متعددة، بدءاً من macOS حيث يحصل مطورو Apple Silicon على خيارين: الإصدار العادي وآخر مُفعل بتقنية KleidiAI للأداء المحسن. مطورو Intel Mac يحصلون على إصدار x64 منفصل، بينما يتوفر إصدار iOS كـ XCFramework للتطبيقات المحمولة.

منصة Linux تحصل على أوسع دعم مع 7 إصدارات مختلفة تشمل Ubuntu x64 و arm64 وحتى s390x للخوادم الكبيرة. المطورون يمكنهم الاختيار بين إصدارات CPU العادية أو المسرعة بـ Vulkan، مع دعم خاص لـ ROCm 7.2 وOpenVINO 2026.0 للاستخدامات المؤسسية.

بيئة Windows تقدم 8 خيارات متنوعة تبدأ بإصدارات CPU لمعمارية x64 و arm64، وتمتد لتشمل CUDA 12.4 و CUDA 13.1 مع ملفات DLL منفصلة. مطورو الألعاب يحصلون على دعم Vulkan، بينما تدعم Intel أجهزتها عبر SYCL وAMD عبر HIP الجديد المحسن.

النظم المتخصصة لم تُنسَ: openEuler الصيني يحصل على 4 إصدارات تدعم معالجات 310p و 910b مع تقنية ACL Graph، وحتى Android يحصل على إصدار arm64 مخصص للتطبيقات المحمولة.

السؤال المطروح الآن: لماذا كل هذا التنويع؟ الإجابة تكمن في أن كل منصة لها متطلبات أداء مختلفة، ومطورو الذكاء الاصطناعي يحتاجون خيارات محسنة لبيئاتهم المحددة بدلاً من حل واحد يناسب الجميع.

هذا الإصدار يؤكد أن llama.cpp لم تعد مجرد أداة تجريبية – بل منصة إنتاج جاهزة للمشاريع الحقيقية عبر النظم المتنوعة.

GitHub

مقالات ذات صلة

زر الذهاب إلى الأعلى