Google 介紹 Pixel 4 人像模式背後的祕密

這次的更動主要在深度的估算和散景上。

Andy Yang
Andy Yang
2019年12月18日, 上午 10:30
0分享次數
pixel 4
在上月底介紹了 Pixel 4 的天文模式之後,現在輪到 Pixel 4 / 4 XL 的人像模式被放到了聚光燈下。其實嚴格來說,單論技術而言 Pixel 4 在人像模式的準確性上是追趕者 —— 過去的 Pixel 3 利用了 Dual Pixel 的技術,可以在一個鏡頭上實現與光圈寬度相等的視差,但這也只有不到 1mm 而已。相較之下,使用多鏡頭的手機可以利用兩個或更多個鏡頭拍下的照片,進行視差的運算,達到更佳的深度估算效果。Pixel 4 的人像模式第一個改進就是在於它現在也搭載了雙鏡頭,因此可以擁有 13mm 的視差,在物理上就優於 Pixel 3 與之前的 Pixel 系列手機。
不過,Google 的技術當然不僅止於此而已。在使用人像模式拍照時,Pixel 4 實際上是有了三張照片(兩個鏡頭是兩張、主鏡頭同時有 Dual Pixel)的資訊輸入,因此 Pixel 的 AI 機能會先將 Dual Pixel 整合成一張深度圖、再將雙鏡頭的畫面整合成另一張深度圖,最後再透過機器學習,將這兩者合併成一個最終結果。Google 表示使用這樣一套系統的優點,是就算長焦鏡頭無法使用(例如距離被攝物太近、無法對焦)時,依然還有 Dual Pixel 的數據可供運算,再者兩組數據可以相互截長補短,帶來更精確的最終深度图。


除了深度的判定外,Pixel 4 的另一個更動在於散景的演算方式上。Pixel 3 的散景原本就是一眾相機當中較為「逼真」的,這原因就是 Google 試圖將點光源像真實的相機一樣散成一片半透明的圓盤,而不是單純的模糊。當這個效果隨著距離改變強度時,就能帶來極像大光圈 DSLR 的效果。在 Pixel 4 上,Google 則是針對了 HDR 效果做了改善。過去是先將 HDR 的動態範圍壓縮後,再進行散景的處理,如此一來許多本來應該是高對比的點光源,就會顯得較為暗淡。在 Pixel 4 上則是將順序反了過來,先將照片套用 HDR 的計算後,才去模擬散景。雖然只是一點順序上的改變,但效果可是頗為顯著呢。更棒的是,由於這是個軟體功能,舊的 Pixel 3 / 3a 也能獲得,只要將相機 app 升級到 7.2 版就好囉。
標籤: ai, cameras, gear, google, machine learning, pixel 4, portrait mode
0分享次數