谷歌正在用新的人工智能语言功能更新其视觉搜索工具谷歌镜头。此更新将让用户使用文本进一步缩小搜索范围。因此,例如,如果您拍摄佩斯利衬衫的照片以便使用 Google Lens 在线查找类似商品,则可以添加“具有此图案的袜子”命令来指定您要查找的服装。
此外,谷歌正在其 iOS 谷歌应用程序中推出一个新的“镜头模式”选项,允许用户使用搜索网络时出现的任何图像进行搜索。这将“很快”可用,但仅限于。谷歌还在 Chrome 浏览器的桌面上推出了谷歌镜头,让用户在浏览网页时选择任何图像或视频,无需离开标签即可找到视觉搜索结果。这将“很快”在全球范围内可用。
这些更新是谷歌使用人工智能语言理解改进其搜索工具的最新举措的一部分。Lens 的更新由该公司今年早些时候在 I/O 上推出的名为 MUM 的机器学习模型提供支持。除了这些新功能,谷歌还在其网络和移动搜索中引入了新的人工智能工具。
Google Lens 的变化表明该公司并没有失去对这个功能的兴趣,这个功能一直显示出希望,但似乎作为一种新奇事物更具吸引力。机器学习技术使对象和图像识别功能在基本层面上相对容易启动,但是,正如今天的更新所示,它们需要用户的一些技巧才能正常运行。不过,人们的热情可能正在上升——Snap最近升级了自己的扫描功能,其功能与 Google Lens 几乎相同。
谷歌希望这些 Lens 更新能够将其世界扫描 AI 变成一个更有用的工具。它举了一个例子,有人试图修理他们的自行车,但不知道后轮上的机构叫什么。他们用 Lens 拍了一张照片,添加了“如何解决这个问题”的搜索文本,然后谷歌会弹出结果,将这种机制识别为“变速器”。
与这些演示一样,Google 提供的示例看起来既简单又有用。但我们必须亲自试用更新后的 Lens,看看 AI 语言理解是否真的让视觉搜索不仅仅是一种客厅技巧。