Google 解釋 Pixel 3 是如何靠 AI 改進人像功能的

機器學習依然是核心。

Google 解釋 Pixel 3 是如何靠 AI 改進人像功能的

跟前代相比,Google 今年出的 Pixel 3 系列在處理人像拍攝時的表現要來得更好。考慮到兩者用的都是單顆主相機的設計,所以改進大部分還是來源於軟體。那說到底,Google 究竟做了些什麼讓 Pixel 3 的人像演算法變得更強?今天他們就決定發文來解釋一下。

Pixel 2 推出的時候,Google 是利用神經網路和相機上的相位對焦技術(後者主要是跟視差效果有關)來確定拍攝時處於前景的對象。但這套方案在面對變化不大的場景時就容易出錯,而且在以小光圈進行拍攝的時候也比較容易發生問題。為了改善這些,Google 在 Pixel 3 上運用了新的神經網路,希望透過對象的常規形狀、場景中不同點的清晰度等多項因素,來更準確地判斷對象距離。另外在訓練這套系統時,Google 也採用了一些創造性的辦法。比如說他們曾做出過把五台 Pixel 3 綁在一起的「Frankenphone」,以同步記錄深度資訊,來消除光圈、視差方面的不足。

看到 Google 在 AI 上投入了那麼多的資源,可見他們對單相機方案的決心是多麼之大。當然囉,你也可以反過來想。Google 一直堅持這種小眾做法的原因,搞不好也是為了探索演算法的極限,從而秀出自己在人工智慧領域的「肌肉」呢。

來源: Google AI Blog

經由: Engadget