
بقلم: يوسف | محرر أدوات الذكاء الاصطناعي
أعلنت LM Studio استحواذها على Locally AI، التطبيق الذي يتيح تشغيل نماذج الذكاء الاصطناعي مفتوحة المصدر مباشرة على أجهزة آيفون وآيباد وماك دون الحاجة للإنترنت أو التسجيل في خدمات سحابية. الصفقة تشمل انضمام أدريان جروندين، مؤسس Locally AI، إلى فريق LM Studio ليقود تطوير “تجارب الذكاء الاصطناعي المحلية عبر الأجهزة”.
(وفقاً للإعلان الرسمي) تهدف LM Studio إلى جعل “نماذجك ووكلائك الذكية تعمل عبر أجهزتك، أينما ذهبت”. هذا التوجه يمثل قفزة من كون LM Studio مجرد “نادي النماذج المحلية لأجهزة سطح المكتب” إلى منصة شاملة لتشغيل الذكاء الاصطناعي الشخصي على جميع أجهزتك.
يدعم Locally AI حالياً تشغيل نماذج Llama وGemma وQwen وDeepSeek محلياً على أجهزة Apple، مما يعني أن بياناتك تبقى على أجهزتك فقط دون الحاجة لـ”تسليم إيميلك وروحك وطفلك الأول” كما تعبر الشركة بسخرية عن متطلبات التسجيل المعتادة في الخدمات السحابية.
الاستحواذ يأتي في لحظة تحول مهمة للذكاء الاصطناعي الشخصي. ما بدأ كهواية للمطورين المتقدمين أصبح يتشكل كفئة منتجات استهلاكية حقيقية: متاحة عبر الأجهزة، تعمل دائماً، وأقل اعتماداً على “العقول المستأجرة في السحابة” من عمالقة التقنية. بدلاً من دفع اشتراكات شهرية لـOpenAI أو Anthropic، ستتمكن من تشغيل نماذج قوية بتكلفة استهلاك الكهرباء فقط.
لكن التحدي الحقيقي يكمن في محدودية قوة المعالجة والذاكرة على الأجهزة المحمولة. النماذج الكبيرة مثل Llama 70B تتطلب موارد ضخمة قد لا تتوفر حتى في أحدث هواتف آيفون. كيف ستوازن LM Studio بين قوة النماذج وقيود الأجهزة المحمولة لتقديم تجربة مقنعة؟ هذا السؤال سيحدد نجاح أو فشل الرهان على مستقبل الذكاء الاصطناعي المحمول.




