成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

CVPR 2025 Award Candidate | 英偉達(dá)等Difix3D+:用單步擴散模型修復(fù) 3D 重建偽影

人工智能 新聞
來自英偉達(dá)的研究團隊聯(lián)合提出了一種創(chuàng)新方案 ——?Difix3D+,通過單步擴散模型對 3D 渲染結(jié)果進行 “圖像修復(fù)”,顯著提升新視角圖像的質(zhì)量和一致性。

在 3D 重建領(lǐng)域,無論是 NeRF 還是最新的 3D Gaussian Splatting(3DGS),在生成逼真新視角時仍面臨一個核心難題:視角一旦偏離訓(xùn)練相機位置,圖像就容易出現(xiàn)模糊、鬼影、幾何錯亂等偽影,嚴(yán)重影響實際應(yīng)用。

為了解決這個問題,來自英偉達(dá)的研究團隊聯(lián)合提出了一種創(chuàng)新方案 —— Difix3D+,通過單步擴散模型對 3D 渲染結(jié)果進行 “圖像修復(fù)”,顯著提升新視角圖像的質(zhì)量和一致性。該工作已被 CVPR 2025 接收,并入選 Best Paper Award 候選。

圖片

  • ??項目主頁:https://research.nvidia.com/labs/toronto-ai/difix3d
  • ??論文地址:https://arxiv.org/abs/2503.01774
  • ??代碼地址:https://github.com/nv-tlabs/Difix3D 

圖片背景:3D 重建的 “致命短板”

近年來,NeRF(神經(jīng)輻射場)和 3D Gaussian Splatting(3DGS)等技術(shù)在三維重建與新視角合成中取得突破。然而,在訓(xùn)練相機視角之外,這些方法往往會出現(xiàn)模糊、鬼影、幾何錯亂等偽影,尤其在視角跨度較大、數(shù)據(jù)稀疏、光照變化或相機標(biāo)定不準(zhǔn)確的情況下尤為嚴(yán)重。這些偽影極大限制了其在自動駕駛、機器人、AR/VR 等真實場景中的應(yīng)用。

這主要是因為傳統(tǒng)方法過度依賴局部一致性和 per-scene 優(yōu)化流程,缺乏跨場景泛化能力,且無法有效填補觀測稀疏區(qū)域的 “空洞”。

關(guān)鍵洞察:2D 擴散模型為何能 “修好” 3D?

Difix3D+ 提出了一個突破性的視角:將預(yù)訓(xùn)練 2D 擴散模型的視覺先驗引入 3D 渲染流程,將其作為 “圖像修復(fù)器”,精準(zhǔn)去除神經(jīng)渲染偽影。

這一設(shè)計基于一個關(guān)鍵觀察:神經(jīng)渲染偽影的分布,與擴散模型訓(xùn)練過程中的噪聲圖像分布驚人地相似。

圖片

為驗證這一點,研究者將渲染圖輸入擴散模型進行單步 “去噪”,并系統(tǒng)性測試不同噪聲強度(t)的效果 ——

  • 高噪聲(t=600):雖然偽影被去除,但內(nèi)容也嚴(yán)重變形
  • 低噪聲(t=10):圖像結(jié)構(gòu)完整,但偽影幾乎未去除
  • 中等噪聲(t=200):在保留語義結(jié)構(gòu)的同時,有效消除了渲染偽影

這一發(fā)現(xiàn)使得單步擴散模型成為 “修復(fù)” NeRF/3DGS 渲染圖的理想選擇,不僅效率高,而且具備泛化能力。

圖片

Difix 具備以下核心優(yōu)勢:

1. 單步擴散:發(fā)現(xiàn)渲染偽影的分布在 t=200 處最接近擴散模型訓(xùn)練數(shù)據(jù),DIFIX 可一次去除偽影并保留語義結(jié)構(gòu)。

2. 無需大量訓(xùn)練:僅需在消費級 GPU 上訓(xùn)練幾個小時,即可適配 NeRF/3DGS 的渲染偽影;

3. 支持多種 3D 表征:同一個模型可同時修復(fù) NeRF(隱式)與 3DGS(顯式)渲染;

4. 近實時推理:在 NVIDIA A100 上,僅需 76ms 即可完成圖像修復(fù),比傳統(tǒng)多步擴散快 10 倍以上。

5. 可進可退:修復(fù)后的圖像還能反向蒸餾回 3D 模型,提升整體建模精度和一致性。

解決方案:DIFIX3D+ = 擴散模型 + 蒸餾增強 + 實時修復(fù)

DIFIX3D+ 以一個經(jīng)過少量微調(diào)的單步擴散模型(DIFIX)為核心模塊,結(jié)合漸進式優(yōu)化策略,構(gòu)建出一個無需修改原始 3D 重建結(jié)構(gòu)即可增強視覺質(zhì)量的插件化系統(tǒng)。

圖片

核心三步流程:

Step 1:DIFIX 修復(fù)中間視角圖像。從訓(xùn)練視角向目標(biāo)視角進行插值采樣,生成中間視角圖,并用 DIFIX 去除偽影。

Step 2:蒸餾至 3D 表示。將修復(fù)后的圖像 “反向蒸餾” 回 3D 表示中,逐步提升建模質(zhì)量與區(qū)域覆蓋度。

Step 3:推理時再修復(fù)。最終渲染出的圖像,再次通過 DIFIX 后處理,消除殘留細(xì)節(jié)錯誤,僅需 76ms,支持實時渲染。

實驗結(jié)果一覽:效果、指標(biāo)全面領(lǐng)先

支持 NeRF、3DGS 多種 3D 表征。

圖片

圖片

FID 降幅超過 60%~70%,LPIPS 接近 SOTA 一半,大幅領(lǐng)先其他方法。

此外,在自動駕駛場景中(橫向 6 米偏移或仰角 30°),DIFIX3D+ 仍能維持視角一致性與圖像清晰度,極具工程落地價值。

結(jié)語:讓 2D 模型 “反哺” 3D,打開新一代 3D 重建大門

DIFIX3D+ 展示了 2D 擴散模型在 3D 渲染修復(fù)中的巨大潛力。它無需改變原始建模流程,即可顯著提升重建質(zhì)量,為未來更加通用、智能、高效的 3D 場景生成與理解提供了堅實基礎(chǔ)。

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2019-11-18 10:22:01

深度學(xué)習(xí)編程人工智能

2025-03-31 08:52:00

AI模型研究

2023-06-02 13:47:44

英偉達(dá)AI

2025-02-13 08:26:26

2025-02-14 09:02:19

2025-04-11 09:44:23

2023-12-07 13:07:59

3D模型訓(xùn)練

2024-05-16 09:24:17

3D技術(shù)

2025-04-07 08:35:00

3DAI生成

2020-08-26 10:37:21

阿里3D

2023-04-24 16:25:47

3D開發(fā)

2022-09-13 15:19:48

3D網(wǎng)絡(luò)

2025-01-26 10:19:21

2025-05-29 06:48:51

前端偽3D

2025-04-24 09:38:00

3D模型AI

2024-12-10 09:40:00

AI3D模型

2024-03-06 14:57:13

火山引擎

2023-12-29 13:18:23

模型NeRFTICD

2011-10-06 13:30:45

宏碁投影儀

2021-09-16 07:52:18

SwiftUScroll效果
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产美女网站 | 天天影视综合 | 91精品久久久久久久久中文字幕 | 欧美爱爱视频 | 久久精品免费 | 亚洲成在线观看 | 日韩欧美国产精品 | 91素人 | 一区二区日本 | japan25hdxxxx日本 做a的各种视频 | 日韩一区中文字幕 | 日本黄视频在线观看 | 日韩久久综合网 | 国产精品久久久久一区二区三区 | 免费看大片bbbb欧美 | 亚洲精品一| 亚洲精品免费看 | 天天干夜夜操 | 青青草av网站 | 97精品久久 | 一区二区精品 | 91久久国产综合久久91精品网站 | 久久精品国产免费 | 91在线精品一区二区 | 国产高清精品一区 | 日本精品视频在线观看 | 中文字幕视频在线看5 | 在线第一页 | 日韩欧美在线一区 | 中文字幕亚洲欧美 | 久久久久久久久久久国产 | 亚洲免费在线 | 九九在线精品视频 | 91热爆在线观看 | 日本一道本视频 | 日韩精品成人在线 | 在线视频一区二区三区 | 天天草视频 | 欧美激情综合色综合啪啪五月 | 在线 丝袜 欧美 日韩 制服 | 久久国产精品视频 |