- +1
谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”
賈浩楠 發(fā)自 凹非寺
量子位 報道 | 公眾號 QbitAI
2D變3D,還不用建模,今年谷歌用NeRF做到了以假亂真的程度:

感覺就像是視頻里截出來的是不是?神經(jīng)網(wǎng)絡只需要幾張靜態(tài)照片就能生成這樣的結果。
但,總感覺離真實的場景還差點什么?
沒錯,缺的就是光影變換效果,NeRF只高度還原了空間,沒有給人時間上的直觀感受:

上面的結果,同樣是用幾張2D照片作為輸入,但有實時光影效果的生成結果,更加逼真生動,讓人有些“斗轉星移”的錯覺。
這項讓2D照片變“4D”的研究,是谷歌團隊聯(lián)合MIT、UC伯克利對之前的NeRF做出的重要改進,稱為NeRV,即用于照明渲染和視圖合成的神經(jīng)反射場和可見光場。

下面我們嘗試用最簡潔易懂的方式介紹NeRV,除了最關鍵重要的推導,盡量少做數(shù)學推理,讓你一文看懂。
谷歌“升維”打擊
光影變幻給了我們對于場景直觀的時間感受,而研究團隊實現(xiàn)這個效果的方法,就是在原先的NeRF上,添加了光模擬過程。
在NeRF中,沒有將場景建模為吸收和發(fā)射光的連續(xù)的3D粒子場,而是將場景表示為吸收和反射外部光源定向粒子3D場。

這樣的模型模擬光傳輸是低效的,并且無法擴展到全局照明的場景。
研究人員引入神經(jīng)能見度場參數(shù)來彌補這一點,它允許有效查詢模擬光傳輸所需的光線和像素點之間的能見度。
具體來說,NeRV網(wǎng)絡還原4D效果有3步,分別對應著3D場景生成、光影效果模擬、渲染。
神經(jīng)反射場
NeRF并沒有將入射光線的效果與表面的材料屬性分開。
這意味著NeRF只能在輸入圖像中呈現(xiàn)的固定光照條件下呈現(xiàn)場景的視圖。

修改NeRF以實現(xiàn)動態(tài)光照是很直接的:將場景表示為反射入射光的粒子場。
給定一個任意的光照條件,就可以用一個標準的體積渲染積分來模擬光在粒子反射時在場景中的傳輸:

其中,方程(1)中的視圖相關發(fā)射項Le(x, ωo)被替換為物體表面S上,光射入方向的積分,即來自任何方向的進光輻射度Li和反射函數(shù) R的乘積,它描述了從某一個方向ωi入射的光有多少被反射到方向ωo。
神經(jīng)可視場的光傳輸
雖然修改NeRF實現(xiàn)一定程度的光照效果是很直接的,但對于像NeRF這樣的連續(xù)體積表示法,一般照明場景的體積渲染積分,在計算上是有難度的。

上圖直觀地展示了模擬光照場景的縮放特性,這使得模擬體積光傳輸特別困難。
即使只考慮從光源到場景點的直接照明,對于超過單點光源的情況下,暴力計算的方案也很吃力,因為它需要沿著從每個場景點到每個光源的路徑,反復查詢形狀MLP的體積密度。
暴力采樣渲染一束間接照明下的單條光線將需要一個petaflop的計算量,而訓練過程中渲染大約十億條光線。
所以團隊通過用學習的近似值替換幾個體積密度積分來改善這個問題:引入一個 “能見度 “多層神經(jīng)網(wǎng)絡,它可以對任意輸入方向的照明能見度給出近似值,以及相應光線的預期終止深度的近似值。
這種方法,大大降低將直接照明和間接照明的計算復雜度,使得在優(yōu)化連續(xù)照明場景表示的訓練循環(huán)中,可以同時模擬直接照明和其反彈的間接照明。
渲染
假設現(xiàn)在有一條通過NeRV的相機射線x(t)=c tωo,使用以下過程來渲染:
1) 沿射線繪制256個分層樣本,并查詢每個點的體積密度、表面法線和BRDF(雙向反射分布函數(shù))參數(shù)的形狀和反射神經(jīng)網(wǎng)絡。
2)沿射線對每個點進行直接照明的遮擋。
3) 用間接照明對射線沿線的每個點進行遮擋。
4) 沿著攝影機光線的每個點的總反射輻射度 Lr(x(t), ωo)是步驟 2 和步驟 3 的數(shù)量之和。將這些沿射線復合起來,用同樣的正交規(guī)則計算像素顏色。
通俗的說,就是對一條入射光線在整個場景所有像素點上的反射情況分別計算,然后整合起來。
測試結果
在最后的測試結果上,NeRV的表現(xiàn)遠遠超過了NeRF和NLT:

團隊分別在不同的數(shù)據(jù)集上訓練模型,然后對雕像、推土機、熱狗三個圖像進行還原。

從結果中可以看出,峰值信噪比(PSNR)、MS-SSIM(多尺度結構比)損失函數(shù)這兩個指標,普遍優(yōu)于之前的方法。
對于個人視頻制作者、游戲開發(fā)人員,以及缺乏3D建模經(jīng)驗的動畫公司來說,這類技術的成熟,可謂“福音”。
通過AI技術,讓3D效果的實現(xiàn)進一步簡化,這也是Facebook、Adobe及微軟等公司紛紛投入這方面研究的原因所在。
最后,研究人員透露,這個算法即將開源,直接把項目主頁給你,先馬后看:
https://people.eecs.berkeley.edu/~pratul/nerv/
這是最近最酷的3D圖片方面的突破了。
如果你有更酷的,也歡迎留言分享~~
— 完 —
本文系網(wǎng)易新聞?網(wǎng)易號特色內容激勵計劃簽約賬號【量子位】原創(chuàng)內容,未經(jīng)賬號授權,禁止隨意轉載。
原標題:《谷歌“升維打擊”:還原任意角度光照立體效果,2D變“4D”!》
本文為澎湃號作者或機構在澎湃新聞上傳并發(fā)布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司