أخبار الذكاء الاصطناعياختيار المحررين

جوجل تحوّل البحث إلى محادثة بصرية بالذكاء الاصطناعي

لا تحتاج بعد اليوم لكتابة استفسار طويل عندما ترى شيئاً لا تعرفه — فقط وجّه كاميرا هاتفك وتحدث. أعلنت جوجل توسيع خدمة Search Live لتشمل أكثر من 200 دولة، محوّلة البحث من تجربة نصية إلى محادثة بصرية مدعومة بنموذج Gemini 3.1 Flash Live الجديد.

الميزة تعمل ببساطة مذهلة: توجه الكاميرا نحو أي شيء — لوحة طعام في مطعم، نبات لا تعرف اسمه، قطعة أثاث في متجر — وتسأل بصوتك عما تريد معرفته. النظام يفهم السياق البصري ويجيب فوراً، ويمكنك متابعة الحوار طبيعياً دون البدء من جديد في كل استفسار.

هذا التطور يمثل تحولاً جذرياً من البحث الذي يعتمد على “ماذا تكتب” إلى البحث الذي يفهم “ماذا تراه”. وبينما تبدو الفكرة بسيطة، فإنها تحل مشكلة عانى منها المستخدمون لسنوات: صعوبة وصف شيء تراه بكلمات مكتوبة. بالنسبة لمطور تطبيقات في دبي أو رائد أعمال في الرياض، هذا يفتح آفاقاً جديدة للتفكير في كيفية تفاعل المستخدمين مع المعلومات — ليس عبر الكلمات فحسب، بل عبر السياق البصري المباشر.

الواقع أن جوجل تراهن على مستقبل تصبح فيه أجهزتنا “ترى” العالم كما نراه، وتفهم استفساراتنا بلا حاجة لترجمتها إلى مصطلحات بحث. السؤال الآن: هل سنتذكر بعد خمس سنوات كيف كنا نكتب “مطعم إيطالي جيد قريب مني” بدلاً من مجرد توجيه الكاميرا نحو الشارع والسؤال مباشرة؟

مقالات ذات صلة

زر الذهاب إلى الأعلى