تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

Ollama v0.21.1 تدمج Kimi CLI مع 5 تحسينات MLX

🎧 استمع للملخص

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

وصل Ollama v0.21.1 بتكامل مباشر لـ Kimi CLI وحزمة تحسينات MLX متقدمة، مما يعيد تشكيل تجربة تشغيل النماذج المحلية للمطورين.

Kimi CLI يعمل الآن مباشرة من Ollama

أصبح بإمكان المطورين تشغيل Kimi K2.6 مباشرة بأمر واحد بسيط:
“`
ollama launch kimi –model kimi-k2.6:cloud
“`

يتميز Kimi K2.6 بتنفيذ المهام الوكيلة طويلة المدى عبر نظام متعدد الوكلاء، وهو مصمم تحديداً للمشاريع المعقدة التي تتطلب تسلسل عمليات متطور. هذا التكامل يلغي الحاجة لتثبيت أدوات منفصلة ويوفر وصولاً فورياً لقدرات الوكلاء الذكية.

5 تحسينات تقنية شاملة لمحرك MLX:

  1. دعم logprobs للنماذج المتوافقة: يوفر احتماليات مفصلة لكل رمز، مما يحسن شفافية عملية التوليد ويساعد في تصحيح الأخطاء
  2. أخذ عينات مدمج أسرع: دمج عمليات top-P و top-K في تمريرة فرز واحدة مع تطبيق عقوبات التكرار داخل المُعيِّن لتسريع الاستجابة
  3. معالجة رموز محسنة: نقل عملية tokenization إلى goroutines معالج الطلبات لتقليل زمن المعالجة
  4. إدارة مصفوفات آمنة للخيوط: تحسينات جذرية في thread safety لإدارة المصفوفات تضمن استقرار أفضل
  5. أداء GLM4 MoE Lite محسن: دمج sigmoid router head مع fused operation لتسريع المعالجة بشكل ملحوظ

إصلاحات حاسمة للاستخدام اليومي

عالج الفريق مشكلتين أساسيتين كانتا تؤثران على سير العمل: منتقي النماذج في تطبيق macOS الذي كان يعرض نماذج قديمة بعد تبديل المحادثات، ومشكلة المخرجات المنظمة لنموذج Gemma 4 عندما تكون معاملة `think=false`. هذان الإصلاحان يحسنان التجربة العملية بشكل مباشر.

التحديث حصد 17 إعجاب و11 احتفال من المجتمع، ويأتي مع 18 ملف أصول متاح للتحميل. التوقيع المتحقق من GitHub (GPG key ID: B5690EEEBB952194) يضمن أمان التحديث وصحته.

GitHub Ollama Releases

مقالات ذات صلة

زر الذهاب إلى الأعلى