谷歌的人工智能“Google Lens”现在手机可用

用户可以在谷歌搜索中调出一张他们喜欢的衬衫的照片,然后询问 Lens 他们在哪里可以找到相同的图案,但在不同类型的服装上…..

谷歌今天分享了其更新的“多重搜索”功能现在可以在移动设备上向全球用户提供,只要 Google Lens 已经可用。搜索功能允许用户同时使用文本和图像进行搜索,该功能于去年 4 月首次推出,作为使 Google 搜索现代化以更好地利用智能手机功能的一种方式。其变体“我附近的多重搜索”针对本地企业的搜索,也将在未来几个月内在全球范围内推出,网络多重搜索和面向 Android 用户的新 Lens 功能也将在全球范围内推出。

谷歌的人工智能“Google Lens”现在手机可用
谷歌人工智能“多重搜索”

正如谷歌之前解释的那样,多搜索由称为多任务统一模型或MUM的人工智能技术提供支持,它可以理解各种格式的信息,包括文本、照片和视频,然后在主题、概念和想法之间得出见解和联系. 谷歌将 MUM 用于其 Google Lens 视觉搜索功能,允许用户将文本添加到视觉搜索查询中。

“我们通过引入智能镜头重新定义了搜索的含义。从那以后,我们将 Lens 直接带入了搜索栏,我们将继续带来购物和分步作业帮助等新功能。”在巴黎的新闻发布会上说。

视频仅为展示

例如,用户可以在谷歌搜索中调出一张他们喜欢的衬衫的照片,然后询问 Lens 他们在哪里可以找到相同的图案,但在不同类型的服装上,比如裙子或袜子。或者,他们可以将手机对准自行车上的破损部件,然后在 Google 搜索中输入“如何修理”之类的查询。这种文字和图像的组合可以帮助谷歌处理和理解它以前无法处理的搜索查询,或者单独使用文本输入会更加困难。

该技术对购物搜索最有帮助,您可以在其中找到喜欢的衣服,但颜色或款式不同。或者,您可以拍摄一件家具(例如餐桌)的照片,以找到匹配的物品,例如咖啡桌。谷歌表示,在多重搜索中,用户还可以通过品牌、颜色和视觉属性来缩小和优化他们的结果。

该功能于去年 10 月向美国用户开放,然后在 12 月扩展到印度。截至今天,谷歌表示,全球所有移动用户都可以使用 multisearch,可以使用 Lens 可用的所有语言和国家/地区。

谷歌今天表示,“我附近的多搜索”变体也将很快扩大。

谷歌去年 5 月宣布,它可以将多重搜索查询定向到本地企业(又名“我附近的多重搜索”),这将返回用户在当地零售商或其他企业寻找匹配库存的商品的搜索结果。例如,对于零件损坏的自行车,您可以将文本“靠近我”添加到带有照片的搜索查询中,以查找具有您需要的更换零件的当地自行车商店或五金店。

谷歌表示,在未来几个月内,该功能将适用于所有支持 Lens 的语言和国家。它还将在未来几个月内扩展到移动设备之外,支持网络上的多重搜索。

在新的搜索产品方面,这家搜索巨头取笑了即将推出的 Google Lens 功能,指出 Android 用户很快就能在手机上跨应用程序和网站搜索他们在照片和视频中看到的内容,同时仍留在应用程序或网站。谷歌称其为“搜索你的屏幕”,并表示只要提供 Lens,它也将可用。

谷歌也分享了 Google Lens 的新里程碑,指出人们现在每月使用该技术的次数超过 100 亿次。

发布者:飞鱼出海,转载请注明出处:https://www.toptiao.com/11251.html

转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢。

(0)
打赏 微信 微信
上一篇 2023年2月12日 08:14
下一篇 2023年2月12日 17:20

相关推荐

发表回复

登录后才能评论
error: Content is protected !!