تعمل شركة جوجل على ترقية تطبيق البحث المرئي الخاص بها، Lens، مع القدرة على الإجابة على الأسئلة في الوقت الفعلي تقريبًا حول البيئة المحيطة بك.
يمكن الآن لمستخدمي Android وiOS الناطقين باللغة الإنجليزية والمثبت عليهم تطبيق Google البدء في التقاط مقطع فيديو عبر Lens وطرح أسئلة حول الأشياء محل الاهتمام في الفيديو.
قال Lou Wang، مدير إدارة المنتجات في Lens، إن الميزة تستخدم نموذج Gemini “مخصصًا” لفهم الفيديو والأسئلة ذات الصلة. Gemini هي عائلة Google من نماذج الذكاء الاصطناعي وتقوم بتشغيل عدد من المنتجات عبر محفظة الشركة.
وقال وانغ في مؤتمر صحفي: “لنفترض أنك تريد معرفة المزيد عن بعض الأسماك المثيرة للاهتمام”. “[Lens will] قم بإنتاج نظرة عامة تشرح سبب السباحة في دائرة، بالإضافة إلى المزيد من الموارد والمعلومات المفيدة.
للوصول إلى ميزة تحليل الفيديو الجديدة في Lens، يجب عليك الاشتراك في برنامج Search Labs من Google، بالإضافة إلى الاشتراك في الميزات التجريبية “AI Overviews and more” في Labs. في تطبيق Google، يؤدي الضغط على زر الغالق بهاتفك الذكي إلى تنشيط وضع التقاط الفيديو في Lens.
اطرح سؤالاً أثناء تسجيل مقطع فيديو، وسيقوم Lens بربط الإجابة المقدمة من AI Overviews، وهي الميزة في بحث Google التي تستخدم الذكاء الاصطناعي لتلخيص المعلومات من جميع أنحاء الويب.
وفقًا لوانغ، تستخدم Lens الذكاء الاصطناعي لتحديد الإطارات الأكثر “إثارة للاهتمام” والبروز في مقطع الفيديو – وقبل كل شيء، ذات صلة بالسؤال المطروح – وتستخدمها “لتحديد” الإجابة من خلال AI Overviews.
وقال وانغ: “كل هذا يأتي من ملاحظة كيف يحاول الناس استخدام أشياء مثل Lens في الوقت الحالي”. “إذا خفضت حاجز طرح هذه الأسئلة ومساعدة الناس على إشباع فضولهم، فسوف يلتقط الناس هذا الأمر بشكل طبيعي جدًا.”
يأتي إطلاق الفيديو لـ Lens في أعقاب ميزة مشابهة تمت معاينتها Meta الشهر الماضي لنظارات الواقع المعزز Ray-Ban Meta. وتخطط Meta لجلب إمكانات الفيديو بالذكاء الاصطناعي في الوقت الفعلي إلى النظارات، مما يسمح لمرتديها بطرح أسئلة حول ما يحيط بهم (على سبيل المثال، “ما نوع هذه الزهرة؟”).
قامت OpenAI أيضًا بإثارة ميزة تتيح لأداة الوضع الصوتي المتقدم الخاصة بها فهم مقاطع الفيديو. في نهاية المطاف، سيتمكن وضع الصوت المتقدم – إحدى ميزات ChatGPT المتميزة – من تحليل مقاطع الفيديو في الوقت الفعلي وأخذ السياق في الاعتبار عندما يجيب عليك.
يبدو أن Google قد تفوقت على الشركتين، باستثناء حقيقة أن Lens غير متزامن (لا يمكنك الدردشة معه في الوقت الفعلي)، وبافتراض أن ميزة الفيديو تعمل كما هو معلن عنها. لم يتم عرض عرض توضيحي مباشر لنا خلال المؤتمر الصحفي، ولدى Google تاريخ من المبالغة في الوعود عندما يتعلق الأمر بقدرات الذكاء الاصطناعي الخاصة بها.
وبصرف النظر عن تحليل الفيديو، يمكن لـ Lens الآن أيضًا البحث باستخدام الصور والنصوص دفعة واحدة. يمكن للمستخدمين الناطقين باللغة الإنجليزية، بما في ذلك أولئك غير المسجلين في Labs، تشغيل تطبيق Google والضغط باستمرار على زر الغالق لالتقاط صورة، ثم طرح سؤال من خلال التحدث بصوت عالٍ.
أخيرًا، حصلت Lens على وظائف جديدة خاصة بالتجارة الإلكترونية.
بدءًا من اليوم، عندما يتعرف Lens على Android أو iOS على منتج ما، فإنه سيعرض معلومات عنه، بما في ذلك السعر والصفقات والعلامة التجارية والمراجعات والمخزون. يعمل معرف المنتج على الصور التي تم تحميلها والملتقطة حديثًا (ولكن ليس مقاطع الفيديو)، ويقتصر على بلدان محددة وفئات تسوق معينة، بما في ذلك الإلكترونيات والألعاب ومستحضرات التجميل، في الوقت الحالي.
قال وانغ: “لنفترض أنك رأيت حقيبة ظهر وأعجبتك”. “يمكنك استخدام Lens لتحديد هذا المنتج وستكون قادرًا على رؤية التفاصيل التي قد تتساءل عنها على الفور.”
هناك عنصر إعلاني لهذا أيضًا. تقول Google إن صفحة النتائج الخاصة بالمنتجات التي تحددها Lens ستعرض أيضًا إعلانات التسوق “ذات الصلة” مع الخيارات والأسعار.
لماذا يتم لصق الإعلانات في Lens؟ لأن ما يقرب من 4 مليارات عملية بحث على Lens كل شهر تتعلق بالتسوق، وفقًا لشركة Google. بالنسبة لشركة تكنولوجية عملاقة تعتبر الإعلانات شريان حياتها، فهي ببساطة فرصة مربحة للغاية لتفويتها.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.