
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
طرح فريق تطوير llama.cpp الإصدار b8831 الذي يضع Android ARM64 على خريطة المنصات المدعومة رسمياً لأول مرة، بجانب إصلاح تقني مهم في آلية الخادم وتوسيع نطاق الدعم ليشمل 20 منصة وتقنية تسريع مختلفة.
التحديث الأبرز يأتي في شكل ملف Android ARM64 الذي يمكّن المطورين من دمج نماذج Llama مباشرة في تطبيقات Android دون الحاجة لخوادم خارجية. هذا يعني إمكانية تشغيل محادثات ذكية، ترجمة فورية، أو مساعدات نصية بخصوصية كاملة داخل الجهاز.
الإصلاح التقني الثاني يتعلق بتحسين سلوك الخادم ليحترم علامة “ignore eos flag” بشكل صحيح. هذا يحل مشكلة إنهاء النماذج للنصوص في أوقات غير مناسبة، خاصة عند التوليد التفاعلي أو المحادثات الطويلة.
- macOS بإصدارين: نسخة عادية لـ Apple Silicon ونسخة KleidiAI محسّنة للعمليات الرياضية المتقدمة، بالإضافة لدعم Intel x64
- Linux شامل: Ubuntu بـ 6 إصدارات تشمل CPU عادي، Vulkan للرسومات، ROCm 7.2 لبطاقات AMD، وOpenVINO 2026.0 لمعالجات Intel
- Windows متكامل: 6 إصدارات تغطي CUDA 12.4 و13.1 الجديدة، Vulkan، SYCL لمعالجات Intel، وHIP لبطاقات AMD Radeon
- openEuler متخصص: 4 إصدارات للنظام الصيني تشمل معالجات 310p العادية و910b مع تسريع ACL Graph للذكاء الاصطناعي
- iOS XCFramework: إطار عمل جاهز لدمج llama.cpp مباشرة في تطبيقات iOS وiPadOS
التوزيع الواسع يعكس نضج llama.cpp كمنصة إنتاج حقيقية وليس مجرد أداة تجريبية. دعم معمارية s390x على Ubuntu يستهدف الخوادم المؤسسية، بينما إصدارات openEuler تفتح السوق الصيني أمام التطبيقات المحلية.
ما لا يذكره الإعلان هو متطلبات الذاكرة الفعلية لتشغيل النماذج على Android أو تأثير الاستهلاك على عمر البطارية. كما أن دعم تقنيات التسريع المتقدمة مثل KleidiAI وACL Graph يتطلب أجهزة محددة قد لا تكون متاحة على نطاق واسع بعد.




