靠Scaling Laws煉出4D版視頻生成模型,多倫多大學北交大等攜手開源81K高質量數據集
只需幾分鐘、一張圖或一句話,就能完成時空一致的4D內容生成。
注意看,這些生成的3D物體,是帶有動作變化的那種。也就是在3D物體的基礎之上,增加了時間維度的運動變化。
這一成果,名為Diffusion4D,來自多倫多大學、北京交通大學、德克薩斯大學奧斯汀分校和劍橋大學團隊。
具體而言,Diffusion4D整理篩選了約81K個4D assets,利用8卡GPU共16線程,花費超30天渲染得到了約400萬張圖片,包括靜態3D物體環拍、動態3D物體環拍,以及動態3D物體前景視頻。
作者表示,該方法是首個利用大規模數據集,訓練視頻生成模型生成4D內容的框架,目前項目已經開源所有渲染的4D數據集以及渲染腳本。
研究背景
過去的方法采用了2D、3D預訓練模型在4D(動態3D)內容生成上取得了一定的突破,但這些方法主要依賴于分數蒸餾采樣(SDS)或者生成的偽標簽進行優化,同時利用多個預訓練模型獲得監督不可避免的導致時空上的不一致性以及優化速度慢的問題。
4D內容生成的一致性包含了時間上和空間上的一致性,它們分別在視頻生成模型和多視圖生成模型中被探索過。基于這個洞見,Diffusion4D將時空的一致性嵌入在一個模型中,并且一次性獲得多時間戳的跨視角監督。
具體來說,使用仔細收集篩選的高質量4D數據集,Diffusion4D訓練了一個可以生成動態3D物體環拍視圖的擴散模型,而后利用已有的4DGS算法得到顯性的4D表征,該方法實現了基于文本、單張圖像、3D到4D內容的生成。
△Text-to-4D
4D數據集
為了訓練4D視頻擴散模型,Diffusion4D收集篩選了高質量的4D數據集。
已開源的Objaverse-1.0包含了42K運動的3D物體,在Objaverse-xl中包含323K動態3D物體。然而這些數據包含著大量低質量的樣本。對此,研究者們設計了運動程度檢測、邊界溢出檢查等篩選方法,選取了共81K的高質量4D資產。
對于每一個4D資產,渲染得到了24個靜態視角的圖(上圖第一行),24個動態視角的環拍圖(上圖第二行),以及24個正面動態圖(上圖第三行)??傆嫷玫搅?strong>超過四百萬張圖片,總渲染消耗約300 GPU天。
其他數據集細節可以參考項目主頁(文末附上),目前所有渲染完的數據集和原始渲染腳本已開源。
方法
有了4D數據集之后,Diffusion4D訓練具有4D感知的視頻擴散模型(4D-aware video diffusion model)。
過去的視頻生成模型通常不具備3D幾何先驗信息,但近期工作如SV3D,VideoMV等探索了利用視頻生成模型得到靜態3D物體的多視圖,因此Diffusion4D選用了VideoMV作為基礎模型進行微調訓練,使得模型能夠輸出動態環拍視頻。此外設計了如運動強度(motion magnitude)控制模塊、3D-aware classifier-free guidance等模塊增強運動程度和幾何質量。得益于視頻模態具備更強的連貫性優勢,輸出的結果具有很強的時空一致性。
輸出得到動態視角環拍視頻后,Diffusion4D借助已有的4D重建算法將視頻建模得到4D表達。具體來說采用了4DGS的表征形式,以及使用粗粒度、細粒度的兩階段優化策略得到最終的4D內容。從生產環拍視頻到重建4D內容的兩個步驟僅需花費數分鐘時間,顯著快于過去需要數小時的借助SDS的優化式方法。
結果
根據提示信息的模態,Diffusion4D可以實現從文本、圖像、3D到4D內容的生成,在定量指標和user study上顯著優于過往方法。
在生成質量上,Diffusion4D有著更好的細節,更為合理的幾何信息以及更豐富的動作。更多可視化結果可以參考項目主頁。
總結
Diffusion4D是首個利用視頻生成模型來實現4D內容生成的框架,通過使用超81K的數據集、以及精心設計的模型架構實現了快速且高質量的4D內容。未來,如何最大程度發揮4D數據集價值,如何生成多物體、復雜場景的4D內容仍有很大的探索空間!
項目地址:??https://vita-group.github.io/Diffusion4D/???
論文地址:???https://arxiv.org/abs/2405.16645??
本文轉自量子位 ,作者:量子位
