分享

谷歌正式发布情景智能搜索功能,拍什么就可以搜什么

 后知后觉无所谓 2018-04-04

3月16日,谷歌正式在iOS平台上推出情景智能搜索功能Google Lens,目前美国用户已能在谷歌相册3.15及以上版本中体验到。

谷歌正式发布情景智能搜索功能,拍什么就可以搜什么

人们常规使用搜索引擎的方式是打开网页或在App中键入文字搜索,稍微高级一点的用法是导入图片来搜索相似图,然而经大脑转化、输入描述关键词的过程其实可以省略,图片搜索也不一定只用来搜索相似图片,谷歌的想法是:让移动终端用户直接拍摄想要搜索的事物,然后由搜索引擎识别场景中的内容,并“自作主张”给出答案。为实现该目标,谷歌在2017年5月举行的I/O开发者大会上首次展示了Google Lens的Demo,后于2017年10月在亲儿子Pixel 2和Pixel 2 XL手机上测试,直至目前全面向美国用户开放。

谷歌正式发布情景智能搜索功能,拍什么就可以搜什么

根据谷歌描述,Google Lens目前可以识别的物体包括名片、书籍、画作、地标或建筑物、动植物、视频游戏、音乐CD以及布告栏等等,不同类型的情景还能触发不同的搜索行为,比如:

当Google Lens识别出是名片时,会弹出联系人管理选项;当识别出是动植物或画作时,就化身为百科全书让搜索者了解它的细节;识别出是活动传单时,显示日历界面让用户添加行程,诸如此类行为都建立在将图像识别与文字识别技术、海量知识库以及用户行为关联在一起的基础上,因此,Google Lens一方面虽然向用户服务,一方面也是谷歌的信息搜集工具,在用户允许的情况下会上传其搜索行为,以供后续谷歌优化Google Lens的功能。

谷歌正式发布情景智能搜索功能,拍什么就可以搜什么

而Google Lens现在虽然只是手机App中的一个功能,但按照谷歌的规划,未来它的用武之地其实是AR眼镜,届时用户连拍摄和导入照片这个过程都能去掉,目光锁定哪里,哪里就能显示出相关的信息。最新版的Google Lens已经可以实现一些简单的AR特效,比如在识别出是外国文字时,直接将翻译好的英语覆盖在原来的文字层上。

谷歌正式发布情景智能搜索功能,拍什么就可以搜什么

就在Google Lens正式发布前3周,谷歌刚面向开发者推出了新版的增强现实开发套件ARCore,并专门适配了Google Lens,开发者可以在识别物体后触发的搜索行为上做文章,比如,当识别出用户搜索的是路标时,触发附近旅馆和娱乐场所推荐,当识别出用户在搜索某位歌手的专辑时,在专辑介绍中额外附加网上商城的入口。

谷歌正式发布情景智能搜索功能,拍什么就可以搜什么

Google Lens还有待开发的另一用途是工业应用,德国初创企业Ioxp就开发过一款AR工艺教员App,可让对维修和加工一窍不通的用户迅速成长为专家,其原理也是在识别出用户注视的物体时自动触发一系列行为,比如维修电气的步骤指引、零件的用途说明等。

谷歌正式发布情景智能搜索功能,拍什么就可以搜什么

综上不难看出,Google Lens是谷歌为即将到来的AR时代所准备的流量变现产品,同时也能赋予AR眼镜除娱乐之外更实用的功能。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多