Google 的新「深度」功能讓 AR 體驗更逼真

新的 Depth API 讓 3D 物件可以被擋在現實物件之後。

Google 的新「深度」功能讓 AR 體驗更逼真

Google 過去兩年來持續在為 ARCore 增添新功能,像是在 I/O 上推出的 Environmental HDR,就能靠著機器學習來判斷環境光源的角度,並以此為依據為 3D 物件打上正確的光影效果。而現在,Google 推出再推出了一個 Depth(深度)API,靠著理解場景中所有物件的相對深度與前後關係,帶來更擬真的場景。

Google 在今年稍早在搜尋中帶來了部份動物的 3D 建模,用支援的手機搜尋動物的名稱(例如「貓」)的話,就會出現該動物的 3D 模型選項,讓你可以將其丟進眼前的 AR 世界中。然而,這動物進入 AR 世界後,雖然大小和位置都是正確的,但卻會一直保持在「前景」,不會被更近的物體所阻擋,也就是說你伸手過去的話,就會發現自己的手在模型之後,立即破壞了 AR 產生的錯覺。現在在啟用了 ARCore 的 Depth API 之後,物體間的遮蔽就可以被正確地展示,讓 AR 物體更擬真了。


除了簡單的遮蔽之外,這個技術也可以正確的了解現實世界中的物體構造,讓 3D 物體可以和現實物體正確地進行互動。像是在一個示範用的「食物大戰」遊戲之中,你丟出去的 3D 物體會在正確的距離「撞」到現實中的物體,並做出正確的反應。這讓 AR 世界可以更符合現實世界的物理特性,進一步增加沉浸感。


目前所有支援 ARCore 的超過 200 款手機都能啟用這項特性,也不需要特殊的感應設備,只要普通的 RGB 相機就可以,只是有專門的感應器的話還能提供更加精準的深度判定就是了。但在軟體方面則勢必還要再一些時間,現在除了 Google 自己的搜尋和一個合作的居家佈置 App「Houzz」之外,其他的應用都還要等開發者將 API 用上去才行了。

經由: Engadget