عندما تم تقديم Google Lens في عام 2017، حققت ميزة البحث إنجازًا كان يبدو منذ وقت ليس ببعيد وكأنه من نوع الخيال العلمي: قم بتوجيه كاميرا هاتفك نحو كائن ما ويمكن لـ Google Lens التعرف عليه، وإظهار بعض السياق، وربما حتى السماح له بالتعرف عليه. تشتريه. لقد كانت طريقة جديدة للبحث، لا تتضمن كتابة أوصاف الأشياء التي تراها أمامك بشكل محرج.
وأظهرت Lens أيضًا كيف خططت Google لاستخدام أدوات التعلم الآلي والذكاء الاصطناعي لضمان ظهور محرك البحث الخاص بها على كل سطح ممكن. نظرًا لأن Google تستخدم بشكل متزايد نماذج الذكاء الاصطناعي التوليدية الأساسية الخاصة بها لإنشاء ملخصات للمعلومات استجابةً لعمليات البحث النصية، فقد تطور البحث المرئي في Google Lens أيضًا. والآن تقول الشركة إن Lens، التي تجري حوالي 20 مليار عملية بحث شهريًا، ستدعم المزيد من طرق البحث، بما في ذلك عمليات البحث عبر الفيديو والوسائط المتعددة.
تعديل آخر على Lens يعني ظهور المزيد من السياق للتسوق في النتائج. ليس من المستغرب أن يكون التسوق أحد حالات الاستخدام الرئيسية لـ Lens؛ لدى Amazon وPinterest أيضًا أدوات بحث مرئية مصممة لتحفيز المزيد من عمليات الشراء. ابحث عن الأحذية الرياضية الخاصة بصديقك في Google Lens القديمة، وربما تظهر لك مجموعة من العناصر المشابهة. في الإصدار المحدث من Lens، تقول Google إنها ستعرض المزيد من الروابط المباشرة للشراء ومراجعات العملاء ومراجعات الناشرين وأدوات التسوق المقارنة.
أصبح البحث بالعدسة الآن متعدد الوسائط، وهي كلمة رائجة في الذكاء الاصطناعي هذه الأيام، مما يعني أنه يمكن للأشخاص الآن البحث باستخدام مجموعة من مدخلات الفيديو والصور والمدخلات الصوتية. بدلاً من توجيه كاميرا هواتفهم الذكية نحو كائن ما، والنقر على نقطة التركيز على الشاشة، وانتظار تطبيق Lens للحصول على النتائج، يمكن للمستخدمين توجيه العدسة واستخدام الأوامر الصوتية في نفس الوقت، على سبيل المثال، “أي نوع من الأشياء”؟ الغيوم تلك؟” أو “ما هي ماركة الأحذية الرياضية وأين يمكنني شراؤها؟”
ستبدأ Lens أيضًا في العمل على التقاط الفيديو في الوقت الفعلي، مما يأخذ الأداة خطوة أبعد من تحديد الكائنات في الصور الثابتة. إذا كان لديك مشغل أسطوانات معطلاً أو رأيت ضوءًا وامضًا على جهاز معطل في المنزل، فيمكنك التقاط مقطع فيديو سريع من خلال Lens، ومن خلال نظرة عامة على الذكاء الاصطناعي، راجع النصائح حول كيفية إصلاح العنصر.
تم الإعلان عن هذه الميزة لأول مرة في I/O، وتعتبر هذه الميزة تجريبية ومتاحة فقط للأشخاص الذين اشتركوا في مختبرات بحث Google، كما يقول راجان باتيل، موظف Google البالغ من العمر 18 عامًا والمؤسس المشارك لشركة Lens. يتم طرح ميزات Google Lens الأخرى، والوضع الصوتي والتسوق الموسع، على نطاق أوسع.
تعتبر ميزة “فهم الفيديو”، كما تسميها جوجل، مثيرة للاهتمام لعدة أسباب. بينما يعمل حاليًا مع مقاطع الفيديو التي تم التقاطها في الوقت الفعلي، إذا قامت Google بتوسيعها لتشمل مقاطع الفيديو الملتقطة أو عندما تقوم بذلك، فمن المحتمل أن تصبح مستودعات مقاطع الفيديو الكاملة – سواء في ألبوم الكاميرا الخاص بالشخص أو في قاعدة بيانات ضخمة مثل Google – قابلة لوضع علامات عليها وقابلة للتسوق بشكل كبير.
الاعتبار الثاني هو أن ميزة Lens هذه تشترك في بعض الخصائص مع Project Astra من Google، والذي من المتوقع أن يكون متاحًا في وقت لاحق من هذا العام. تستخدم Astra، مثل Lens، مدخلات متعددة الوسائط لتفسير العالم من حولك من خلال هاتفك. كجزء من عرض Astra التجريبي هذا الربيع، عرضت الشركة زوجًا من النظارات الذكية النموذجية.
بشكل منفصل، حققت Meta للتو نجاحًا كبيرًا برؤيتها طويلة المدى لمستقبل الواقع المعزز لدينا، والتي تتضمن مجرد بشر يرتدون نظارات غبية يمكنها تفسير العالم من حولهم بذكاء وإظهار واجهات ثلاثية الأبعاد لهم. وبطبيعة الحال، حاولت جوجل بالفعل تحقيق هذا المستقبل باستخدام نظارات جوجل (التي تستخدم تكنولوجيا مختلفة جوهرياً عن تلك التي استخدمتها شركة ميتا في أحدث عروضها). هل تعتبر ميزات Lens الجديدة، إلى جانب Astra، بمثابة امتداد طبيعي لنوع جديد من النظارات الذكية؟