部份 Google Lens 新功能會透過 Google Photos 來到 iOS 上

但就沒有 Lens 的即時分析功能,只能先拍成照片再分析了。

部份 Google Lens 新功能會透過 Google Photos 來到 iOS 上

Android 用戶開始享用 Google Lens 的新功能之後,Google 這邊也宣佈了這些新功能將來到 iOS 上,只是這次就無法使用拍照時的實時觀景窗,而是只能先拍照到相簿裡,再透過 Google Photos(Google 相簿)App 進行分析。在功能上倒是沒有太大的不同,同樣分成「Smart Text Selection」和「Style Match 兩種」。

Smart Text Selection 是將相片中看到的文字,直接轉換成數位的文字來使用。最簡單的應用當然就是文件的 OCR,讓你可以拍下一片字,並且直接做選取、複製等動作;但如果是想搜尋現實中的文字,但又懶得打字的話,這功能應該也能幫上忙才是 -- 只是在 iOS 上拍照、開 Google Photos、等分析花的時間... 好像還不如就打字算了?

Style Match 如果有用過 Amazon 的相機產品搜尋的話應該會很熟悉才是,基本上就是將相機對準現實中的任何一個物件,Photos 就會設法辨明它是什麼。當然 Photos 的目的不像 Amazon 是要搜尋特定產品,所以在回傳的內容上以「風格近似」為主,但偶爾也是能找到一模一樣的產品的。和 Amazon 相比,Google 這種略微「模糊」的搜尋法說不定還更實用,讓你可以找到更多的選擇。

更新版的 iOS Google Photos App 將在「近期內」推出,大家可以留意一下是否有更新喔!

經由: Engadget