
أفادت تقارير حديثة بأن جوجل بدأت رسميًا باختبار ميزة “البحث المباشر” (Search Live) ضمن وضع الذكاء الاصطناعي (AI Mode)، وذلك علنًا لبعض المستخدمين عبر تطبيق جوجل على نظامي أندرويد وiOS. وكانت الشركة قد كشفت عن هذه الميزة لأول مرة خلال الكلمة الافتتاحية في مؤتمر Google I/O 2025، حيث تأتي كإضافة لوضع الذكاء الاصطناعي وتتيح للمستخدمين إجراء محادثات صوتية فورية ضمن نتائج البحث، على غرار تجربة Gemini Live.
الميزة الجديدة قادرة أيضًا على استخدام بث الكاميرا المباشر للرد على الاستفسارات استنادًا إلى ما تراه الكاميرا، إلا أن هذه الوظيفة غير مفعلة حتى الآن للمستخدمين.
وبحسب تقرير نشره موقع 9to5Google، فقد بدأ بعض المستخدمين في الولايات المتحدة برؤية الميزة بعد التسجيل في برنامج Search Labs، حيث أشار التقرير إلى ظهور أيقونة جديدة على شكل موجة صوتية مدمجة ببريق يرمز إلى Gemini، أسفل شريط البحث، لتحل مكان اختصار Google Lens الموجود سابقًا على الجانب الأيسر.
وعند النقر على الأيقونة، تظهر واجهة ملء الشاشة تشبه واجهة Gemini Live، مزودة بزرين أسفل الشاشة: الأول لكتم الصوت، والثاني لعرض نص المحادثة. يمكن للمستخدمين البدء في التحدث مباشرة إلى الذكاء الاصطناعي، الذي يجيب صوتيًا وبأسلوب تفاعلي.
كما أشار التقرير إلى طريقة بديلة للوصول إلى الميزة، تتمثل في النقر على أيقونة دائرية جديدة مزودة بعدسة مكبرة وبريق خاص، والتي تفتح وضع الذكاء الاصطناعي. ومن هناك، يظهر رمز الموجة على يمين حقل النص. وتدعم الميزة حاليًا أربعة أصوات للاختيار بينها: Cosmo وNeso وTerra وCassini، يمكن تفعيلها من قائمة الخيارات.
عند طرح سؤال، يُقال إن الذكاء الاصطناعي يعرض قائمة بالمصادر المستخدمة للإجابة، كما يقوم بطرح أسئلة متابعة لتحسين جودة النتائج وجعلها أكثر دقة وارتباطًا بالموضوع. ويُذكر أن الميزة تعمل في الخلفية، مما يسمح للمستخدمين بمغادرة الواجهة الرئيسية دون انقطاع المحادثة.
حتى الآن، لم تكشف جوجل عن موعد توفر ميزة البحث المباشر أو وضع الذكاء الاصطناعي في مناطق أخرى خارج الولايات المتحدة.