
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري
وصل Ollama v0.21.1 بتكامل مباشر لـ Kimi CLI وحزمة تحسينات MLX متقدمة، مما يعيد تشكيل تجربة تشغيل النماذج المحلية للمطورين.
Kimi CLI يعمل الآن مباشرة من Ollama
أصبح بإمكان المطورين تشغيل Kimi K2.6 مباشرة بأمر واحد بسيط:
“`
ollama launch kimi –model kimi-k2.6:cloud
“`
يتميز Kimi K2.6 بتنفيذ المهام الوكيلة طويلة المدى عبر نظام متعدد الوكلاء، وهو مصمم تحديداً للمشاريع المعقدة التي تتطلب تسلسل عمليات متطور. هذا التكامل يلغي الحاجة لتثبيت أدوات منفصلة ويوفر وصولاً فورياً لقدرات الوكلاء الذكية.
5 تحسينات تقنية شاملة لمحرك MLX:
- دعم logprobs للنماذج المتوافقة: يوفر احتماليات مفصلة لكل رمز، مما يحسن شفافية عملية التوليد ويساعد في تصحيح الأخطاء
- أخذ عينات مدمج أسرع: دمج عمليات top-P و top-K في تمريرة فرز واحدة مع تطبيق عقوبات التكرار داخل المُعيِّن لتسريع الاستجابة
- معالجة رموز محسنة: نقل عملية tokenization إلى goroutines معالج الطلبات لتقليل زمن المعالجة
- إدارة مصفوفات آمنة للخيوط: تحسينات جذرية في thread safety لإدارة المصفوفات تضمن استقرار أفضل
- أداء GLM4 MoE Lite محسن: دمج sigmoid router head مع fused operation لتسريع المعالجة بشكل ملحوظ
إصلاحات حاسمة للاستخدام اليومي
عالج الفريق مشكلتين أساسيتين كانتا تؤثران على سير العمل: منتقي النماذج في تطبيق macOS الذي كان يعرض نماذج قديمة بعد تبديل المحادثات، ومشكلة المخرجات المنظمة لنموذج Gemma 4 عندما تكون معاملة `think=false`. هذان الإصلاحان يحسنان التجربة العملية بشكل مباشر.
التحديث حصد 17 إعجاب و11 احتفال من المجتمع، ويأتي مع 18 ملف أصول متاح للتحميل. التوقيع المتحقق من GitHub (GPG key ID: B5690EEEBB952194) يضمن أمان التحديث وصحته.







