【资料图】
Google的工程师在设计这些最新更新时一定很饿,因为GoogleLens正在获得一系列新功能,可以更轻松地找到看起来美味的食物。
GoogleLens是Google基于图片的搜索工具,它允许您使用图像而不是文本;你可以拍张照片或截取一些东西,然后在网络上搜索看起来相似的图像(现实世界是Ctrl+F)。除了谷歌,Lens还可以扫描图像中的文字,让你搜索书面短语的含义,查找家庭作业帮助或翻译一些文字。
能够使用图片查看某物是什么当然很有帮助,但如果您像我们一样,您不只是想知道一顿看起来很美味的饭菜叫什么,您还需要知道可以去哪里吃东西它马上。好吧,GoogleLensMultisearch的“靠近我”功能允许您使用食品的快照图片进行搜索,然后添加“靠近我”标签以查找附近供应该食品的地点列表。
如上面的示例所示,此人并没有试图通过谷歌搜索“果酱饼干”来推断是什么,而是能够拍一张照片,发现他们是LinzerAugen。然后,通过点击顶部的搜索栏,他们添加了“在我附近”以发现附近的面包店和餐馆,这些面包店和餐馆说他们提供这种款待。
但仅仅因为您知道LinzerAugen是什么以及在哪里可以找到它,您可能就不能吃它了——如果它是用杏仁做的并且您对坚果过敏,那么饼干可能会给您带来严重的麻烦。因此,当您在Lens或常规Google搜索中搜索您附近的食物(例如下例中的汤圆)时,您可以找到有关您想要吃的食物的更多信息。
这包括有关成分的信息、食物的辛辣程度以及它是素食主义者还是素食主义者——您甚至可以过滤结果,以便您只看到符合您要求的附近选项。
这些新工具应该在GoogleLens中可用——无论是Android(在新标签页中打开)和iOS(在新标签页中打开)该应用程序的多个版本——以及现在的Google搜索(它们于11月17日推出)。然而,目前,它们仅限于美国的用户和餐馆,谷歌的新功能通常就是这种情况。因此,如果您住在其他地方或出国旅行,您将无法立即依赖这些新工具;我们预计它们会在不久的将来推广到其他地区。
AR翻译就像它听起来的那样——你可以拍下一些书面文字,你的智能手机可以将它翻译成你选择的语言。这可能是我们最依赖的GoogleLens功能,因为它运行良好-它并不总是完美的,但翻译几乎总是足够好,让您了解标志或菜单的要点。
这项最新的改进不会使翻译更准确;相反,它会改善他们在您拍摄的图像上的外观。通常GoogleLens会遮挡原文并将翻译叠加在上面,但这看起来相当难看-特别是如果下面有美丽的背景。
Lens的新变化允许应用程序擦除原始文本而不是覆盖它,使用AI重建背景,然后将翻译放在上面,让它看起来更像它本来就在那里。如果您是餐厅老板,想要为外国客人创建精心设计的菜单的快速翻译,或者是美食家,想要在线分享翻译后的菜单,以便其他人知道会发生什么,此工具应该有助于使您的翻译看起来好多了。