تُحدَّث يومياً

مصدرُك العربي
لمستقبل الذكاء الاصطناعي

أخبار، تقارير، أدوات وتحليلات يومية — كل ما تحتاجه لمتابعة ثورة الذكاء الاصطناعي باللغة العربية

✅ تم الاشتراك!
تعلم و استخدام الذكاء الاصطناعي

Ollama 0.24.0 يدمج Codex App من OpenAI مع 6 أدوات متطورة للمطورين

بقلم: يوسف | محرر أدوات الذكاء الاصطناعي · صوت تحريري بإشراف بشري

تعيد Ollama تشكيل تجربة البرمجة المحلية بإطلاق الإصدار 0.24.0 الذي يدمج Codex App من OpenAI كتجربة سطح مكتب أصلية للمطورين. هذا ليس مجرد تحديث تقني، بل خطوة لدمج أدوات البرمجة الذكية في بيئة واحدة متماسكة.

  1. تشغيل Codex App فورياً: عبر الأمر ollama launch codex-app للوصول المباشر لبيئة البرمجة مع دعم worktree المدمج وإمكانيات Git الكاملة
  2. متصفح مدمج للتطوير: يحمّل الخوادم والمواقع المحلية مباشرة داخل التطبيق مع إمكانية التعليق على الصفحات لطلب تعديلات محددة
  3. وضع المراجعة التفاعلي: فحص الكود وترك التعليقات والتكرار دون مغادرة مساحة العمل أو التنقل بين تطبيقات متعددة
  4. نماذج متخصصة للمهام المختلفة: kimi-k2.6 مع دعم الرؤية وglm-5.1 للمهام البرمجية المعقدة والوكيلة
  5. خيارات محلية بدون اشتراك: nemotron-3-super وgemma4:31b وqwen3.6 للاستخدام المحلي الكامل دون الحاجة لـ Ollama Cloud
  6. استعادة الإعدادات السابقة: الأمر ollama launch codex-app --restore يعيد التكوين السابق في حالة الحاجة للتراجع
واجهة Codex App المدمجة في Ollama مع أدوات البرمجة
واجهة Codex App الجديدة تجمع أدوات البرمجة في بيئة واحدة

التحسن الأهم يكمن في إعادة كتابة MLX sampler بالكامل لتحسين جودة الإنتاج على معالجات Apple Silicon (وفقاً لـ GitHub Release). هذا يعني أداءً أسرع وأكثر دقة للمطورين الذين يعتمدون على أجهزة Mac مع شرائح M-series، وهو تطوير حاسم مع تزايد اعتماد هذه المعالجات في مجتمع المطورين.

ميزة التعليق المباشر على الواجهات
التعليق المباشر على الصفحات يسرّع دورة التطوير والمراجعة

ما يميز هذا الإصدار هو دعم الرؤية في نموذج kimi-k2.6، مما يفتح إمكانيات جديدة لتحليل واجهات المستخدم ولقطات الشاشة والمخططات مباشرة أثناء البرمجة. هذا التطور يقلل الحاجة لأدوات منفصلة ويسرّع عملية التطوير بشكل ملحوظ.

نظام مراجعة الكود والتعليقات
وضع المراجعة يسمح بالتعليق والتكرار دون مغادرة البيئة

التحدي الأساسي يبقى في إدارة الموارد – النماذج الأكبر مثل gemma4:31b تتطلب ذاكرة RAM كبيرة، والسؤال هو ما إذا كان التحسين الجديد لـ MLX سيكفي لتشغيل هذه النماذج بكفاءة على الأجهزة المحدودة. لكن الخيارات المتنوعة للنماذج تعطي المطورين مرونة اختيار النموذج المناسب لقدرات أجهزتهم.

هذا التحديث يضع Ollama في منافسة مباشرة مع بيئات التطوير السحابية، لكن مع ميزة الخصوصية والتحكم المحلي الكامل – وهو ما يهم فرق التطوير التي تتعامل مع كود حساس أو تواجه قيود الشبكة.

GitHub Release

مقالات ذات صلة

زر الذهاب إلى الأعلى