成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

2D圖像作中介,零訓(xùn)練實(shí)現(xiàn)3D場(chǎng)景生成SOTA:英偉達(dá)&康奈爾提出文本驅(qū)動(dòng)新流程

人工智能 新聞
能否讓 2D 圖像充當(dāng) "中間商",先把用戶輸入文字轉(zhuǎn)化為高質(zhì)量場(chǎng)景圖,再?gòu)闹刑崛?3D 信息?NVIDIA 與康奈爾大學(xué)聯(lián)合團(tuán)隊(duì)的最新研究 ArtiScene,正是基于這一 insight 提出的全新解決方案。

本文第一作者顧澤琪是康奈爾大學(xué)計(jì)算機(jī)科學(xué)四年級(jí)博士生,導(dǎo)師為 Abe Davis 教授和 Noah Snavely 教授,研究方向?qū)W⒂谏墒?AI 與多模態(tài)大模型。本項(xiàng)目為作者在英偉達(dá)實(shí)習(xí)期間完成的工作。

想象一下,你是一位游戲設(shè)計(jì)師,正在為一個(gè)奇幻 RPG 游戲搭建場(chǎng)景。你需要?jiǎng)?chuàng)建一個(gè) "精靈族樹(shù)屋村落"—— 參天古木和樹(shù)屋、發(fā)光的蘑菇路燈、半透明的紗幔帳篷... 傳統(tǒng)工作流程中,這可能需要數(shù)周時(shí)間:先手工建模每個(gè) 3D 資產(chǎn),再逐個(gè)調(diào)整位置和材質(zhì),最后反復(fù)測(cè)試光照效果…… 總之就是一個(gè)字,難。

這種困境正是當(dāng)前 3D 內(nèi)容創(chuàng)作領(lǐng)域的縮影。傳統(tǒng) 3D 設(shè)計(jì)軟件如 Blender、Maya 雖然功能強(qiáng)大,但學(xué)習(xí)曲線陡峭。近年來(lái)興起的文本生成 3D 技術(shù)讓用戶可以通過(guò)文字描述生成 3D 內(nèi)容,但這些方法要么依賴有限的 3D 訓(xùn)練數(shù)據(jù),遇到新場(chǎng)景類型或風(fēng)格就容易翻車(chē),要么在預(yù)測(cè)完場(chǎng)景中的物體信息后,要從特定的 3D 模型池中尋找并調(diào)用出與預(yù)測(cè)特征最相近的,因此最后的場(chǎng)景質(zhì)量非常依賴于模型池中到底有什么,很容易導(dǎo)致風(fēng)格不統(tǒng)一。

與此同時(shí),文本生成 2D 圖像技術(shù)(如 GPT-4o、Flux)卻突飛猛進(jìn)。這些模型通過(guò)海量互聯(lián)網(wǎng)圖像訓(xùn)練,已經(jīng)能生成布局合理、風(fēng)格統(tǒng)一的復(fù)雜場(chǎng)景圖。這引發(fā)了一個(gè)關(guān)鍵思考:能否讓 2D 圖像充當(dāng) "中間商",先把用戶輸入文字轉(zhuǎn)化為高質(zhì)量場(chǎng)景圖,再?gòu)闹刑崛?3D 信息?NVIDIA 與康奈爾大學(xué)聯(lián)合團(tuán)隊(duì)的最新研究 ArtiScene,正是基于這一 insight 提出的全新解決方案。

圖片

  • 文章鏈接:https://arxiv.org/abs/2506.00742
  • 文章網(wǎng)站:https://artiscene-cvpr.github.io/(代碼即將開(kāi)源)
  • 英偉達(dá)網(wǎng)站:https://research.nvidia.com/labs/dir/artiscene/

圖片

圖一:ArtiScene 生成的 3D 結(jié)果。從左到右的文字輸入分別是,第一行:(1) a Barbie-styled clinic room, (2) a space-styled bedroom, (3) a teenager-styled bathroom。第二行:(1) a cute living room, (2) a garage, (3) a operating room.

核心貢獻(xiàn):無(wú)需訓(xùn)練的智能 3D 場(chǎng)景工廠

ArtiScene 的核心創(chuàng)新在于構(gòu)建了一個(gè)完全無(wú)需額外訓(xùn)練的自動(dòng)化流水線,將文本生成圖像的前沿能力與 3D 重建技術(shù)巧妙結(jié)合。它一共包含五步:

1. 2D 圖像作為 "設(shè)計(jì)藍(lán)圖"

系統(tǒng)首先用擴(kuò)散模型生成等軸測(cè)視角的場(chǎng)景圖。這種視角常用于建筑設(shè)計(jì)示意圖,因?yàn)樗芡瑫r(shí)呈現(xiàn)物體的長(zhǎng)、寬、高信息,且不受場(chǎng)景位置影響。相比直接生成 3D,這種方法能利用更成熟的 2D 生成技術(shù)確保布局合理性和視覺(jué)美感。

圖片

圖二:和其他任意的相機(jī)視角(左二、三)比,讓文生圖模型輸出等軸測(cè)圖(左一)更可靠,因?yàn)榈容S測(cè)圖默認(rèn)相機(jī)參數(shù)是固定的,且沒(méi)有透視形變。

2. 物體檢測(cè)與修復(fù)

采用兩階段檢測(cè)策略:先用 GroundedDINO 識(shí)別場(chǎng)景中的家具和裝飾品,對(duì)遮擋部分用補(bǔ)全修復(fù)(Remove Anything 模型),再次檢測(cè)確保完整性,最后得到每個(gè)物品的分割掩碼。

3. 3D 空間定位

通過(guò) Depth-Anything-2 模型估計(jì)深度信息,配合自定義投影公式將 2D 坐標(biāo)轉(zhuǎn)換為 3D 位置。團(tuán)隊(duì)發(fā)現(xiàn)傳統(tǒng)相機(jī)投影公式需要調(diào)整,于是采用去除深度縮放影響后的公式。

4. 模塊化 3D 資產(chǎn)生成

傳統(tǒng)方法通常從現(xiàn)有數(shù)據(jù)庫(kù)檢索 3D 模型,導(dǎo)致美觀度受限。ArtiScene 則對(duì)場(chǎng)景圖中的每個(gè)物體分別生成定制化 3D 模型:在得到分割物體圖像后,讓 ChatGPT 描述其幾何特征,再輸入單視圖 3D 生成模型,為每件家具、裝飾品單獨(dú)建模。

5. 場(chǎng)景組裝

通過(guò)單目深度估計(jì),系統(tǒng)將 2D 邊界框轉(zhuǎn)換為 3D 空間坐標(biāo)。并使用 "渲染 - 比對(duì)" 的姿勢(shì)估測(cè)機(jī)制,生成 8 個(gè)旋轉(zhuǎn)角度的物體渲染圖,用 Stable Diffusion+DINO-v2 融合模型提取特征,選擇與原始場(chǎng)景圖最匹配的姿勢(shì)。后處理階段還會(huì)自動(dòng)修正物體重疊,確保物理上足夠合理,比如椅子不會(huì)嵌進(jìn)餐桌里,花瓶能穩(wěn)穩(wěn)立在柜子上。

圖片

圖三:系統(tǒng)流程圖

這種設(shè)計(jì)帶來(lái)三個(gè)顯著優(yōu)勢(shì):

?零訓(xùn)練成本:完全利用現(xiàn)成模型,無(wú)需針對(duì)新場(chǎng)景類型微調(diào)

?風(fēng)格無(wú)限:每個(gè)物體都按需生成,不受預(yù)制模型庫(kù)限制

?可編輯性強(qiáng):?jiǎn)为?dú)修改某個(gè)物體不會(huì)影響整體場(chǎng)景

實(shí)驗(yàn)結(jié)果:全面超越現(xiàn)有方案

團(tuán)隊(duì)在三個(gè)維度進(jìn)行了系統(tǒng)評(píng)估:

1. 布局合理性測(cè)試

對(duì)比當(dāng)時(shí)最強(qiáng)的 LayoutGPT,在臥室和客廳場(chǎng)景中:

  • 物體重疊率降低 6-10 倍(臥室 6.48% vs 37.26%)
  • 用戶調(diào)研顯示,72.58% 的參與者更青睞 ArtiScene 的布局
  • 生成家具數(shù)量更多(臥室平均 6.97 件 vs 4.30 件),且分布更自然

2. 風(fēng)格一致性測(cè)試

相比當(dāng)時(shí)效果最好的文生 3D 場(chǎng)景方法 Holodeck,在包含 29 種場(chǎng)景種類和風(fēng)格的測(cè)試集中:

  • CLIP 分?jǐn)?shù)提高 10%(29.45 vs 26.73)
  • GPT-4 評(píng)估中,95.46% 案例認(rèn)為 ArtiScene 更符合描述
  • 用戶調(diào)研顯示,82.96% 認(rèn)為風(fēng)格還原更準(zhǔn)確

圖片

圖四:和之前的 SOTA Holodeck 的比較。

3. 應(yīng)用靈活性展示

系統(tǒng)支持多種實(shí)用功能:

  • 物體編輯:?jiǎn)为?dú)修改某個(gè)模型(如把普通汽車(chē)變成黃色保時(shí)捷)
  • 多場(chǎng)景適配:通過(guò)調(diào)整參數(shù)支持戶外場(chǎng)景生成
  • 人工引導(dǎo):允許直接輸入手繪設(shè)計(jì)圖替代 AI 生成場(chǎng)景圖

圖片

圖五:左:物體編輯;右:跳過(guò)最開(kāi)始的文生圖環(huán)節(jié),直接用人工畫(huà)的圖生成場(chǎng)景。

展望

對(duì)于更復(fù)雜的多房間場(chǎng)景(如整個(gè)博物館、醫(yī)院),或者要求特定家具間的位置關(guān)系和個(gè)數(shù)等用戶輸入,由于文生圖模型在訓(xùn)練時(shí)就缺乏相關(guān)數(shù)據(jù),ArtiScene 在最開(kāi)始就會(huì)受限于不夠優(yōu)質(zhì)的二維圖像。然而,這一模塊是可更換的,ArtiScene 不依賴于某一特定模型,未來(lái)如果有性能更好的同功能模型,我們也可以很容易把它們替換進(jìn)來(lái)。

本項(xiàng)目創(chuàng)新地采用二維圖像來(lái)引導(dǎo)三維場(chǎng)景生成,并用 LLM、VLM 等大模型構(gòu)成了一個(gè)魯棒的系統(tǒng),在生成結(jié)果的美觀度、多樣性和物理合理性上都遠(yuǎn)超之前的同類型方法。作者希望他們的工作可以啟發(fā)未來(lái)更多關(guān)于具身智能、AR/VR、室內(nèi) / 室外設(shè)計(jì)的思考。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2025-01-13 10:00:00

模型生成3D

2024-04-23 09:30:07

3D模型

2023-05-03 09:01:41

CanvasWebGL

2021-04-19 09:22:03

科技人工智能技術(shù)

2023-04-27 15:54:02

模型研究

2020-03-06 10:34:40

AI 數(shù)據(jù)人工智能

2024-10-15 13:07:38

2025-05-07 10:09:49

3D模型生成

2021-08-13 15:07:02

模型人工智能深度學(xué)習(xí)

2019-11-18 10:22:01

深度學(xué)習(xí)編程人工智能

2023-12-07 10:37:55

3D框架AI

2025-03-27 09:26:30

2023-09-27 10:13:09

3D模型

2024-12-10 09:40:00

AI3D模型

2011-09-22 10:07:52

奧圖碼投影儀

2023-02-20 14:56:14

圖像

2023-06-02 13:47:44

英偉達(dá)AI

2025-01-07 13:19:48

模型AI訓(xùn)練

2020-08-26 10:37:21

阿里3D

2011-05-03 11:07:46

2D3D麗訊
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 在线观看黄色电影 | 理论片87福利理论电影 | 国产精品高清在线 | 青青草网站在线观看 | 九九九精品视频 | 欧美综合色 | 精品国产精品三级精品av网址 | 在线观看国产精品一区二区 | 请别相信他免费喜剧电影在线观看 | 久久九九影视 | 亚洲综合首页 | 国产伊人精品 | 国产夜恋视频在线观看 | 中国xxxx性xxxx产国 | 欧美mv日韩mv国产网站91进入 | 成人小视频在线观看 | 伊人久久国产 | 久久久久久免费毛片精品 | 国产精品一区在线播放 | 成人在线中文字幕 | 一区欧美 | 国产91丝袜在线熟 | 久久久久成人精品免费播放动漫 | 日本在线一区二区三区 | 成人在线a | 在线看av网址 | 日韩一区二区在线视频 | 久久精品国产免费一区二区三区 | 久久久久久久亚洲精品 | 99re在线视频 | 中文字幕在线观看 | 亚洲另类春色偷拍在线观看 | 精品国产乱码久久久久久丨区2区 | 国产一区二区三区在线免费 | 中文字幕在线观看精品 | 免费看国产片在线观看 | 欧美精品乱码久久久久久按摩 | 色婷婷一区 | 久久精品国产一区二区电影 | 久久精品国产免费看久久精品 | 日韩中文一区二区三区 |