成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

3DGS自監(jiān)督預訓練全新范式!VisionPAD:三大感知任務全部暴力漲點(港中文&華為)

人工智能 新聞
今天為大家分享港中文&華為諾亞最新的工作—VisionPAD!專為自動駕駛設計的自監(jiān)督預訓練新范式。

寫在前面 && 筆者理解

雖然近一年端到端的自動駕駛發(fā)展火熱,但是以多視角圖像推導BEV視角和占用空間的感知技術引領的自動駕駛框架,仍然在很多企業(yè)中占據主體。比如今天要分享的這篇,就是華為諾亞方舟實驗室對BEV+OCC的繼續(xù)研究。但是不得不說,這些模型在很大程度上依賴于精確的3D標注,而數據標注的高成本使得越來越多的研究人員和工程師開始關注預訓練策略。

  • 論文鏈接:https://arxiv.org/pdf/2411.14716

傳統意義上的預訓練是監(jiān)督預訓練,用于3D目標檢測和占用預測等任務,當然這種方式仍然伴隨著標注成本過高的問題。再者,有其他方法使用 對比學習  掩碼自編碼器(MAE) 進行自監(jiān)督預訓練。然而,它們依賴于粗監(jiān)督,這使得同時有效地捕獲語義、3D幾何和時間動態(tài)變得具有挑戰(zhàn)性。UniPAD通過重建體素特征的多視圖深度圖和圖像引入了一種預訓練范式(見圖1(a))。這種方法使用可微分的體積渲染來構建完整的幾何表示。在此基礎上,ViDAR結合了下一個幀預測和變換器,并渲染出由未來LiDAR幀監(jiān)督的相應深度圖。然而,這兩種技術仍然嚴重依賴于來自LiDAR數據的顯式深度監(jiān)督來學習3D幾何。僅依賴于圖像監(jiān)督的結果不令人滿意,這限制了它們在基于攝像頭的自動駕駛系統中的應用。

圖片

在本文中,作者提出了VisionPAD,這是一個針對視覺中心數據的自監(jiān)督預訓練框架(見圖1(b))。與之前使用體積渲染進行圖像重建的方法不同,作者利用了更高效的基于錨點的3D Gaussian Splatting(3D-GS)。這篇文章的貢獻可以總結為一下幾點:

  • 能夠在相同的計算預算下重建更高分辨率的圖像,捕捉更細粒度的顏色細節(jié),而無需射線采樣。
  • 為了僅從圖像中學習運動線索,作者提出了一種自監(jiān)督的體素速度估計方法。作者使用輔助頭預測每個體素的速度,并使用時間戳近似體素流向相鄰幀。隨后,作者將當前幀的體素扭曲到相鄰幀,并使用相應的圖像監(jiān)督3D-GS重建。這種速度預測使模型能夠分離動態(tài)和靜態(tài)體素,有助于下游任務中的運動感知。
  • 作者采用了多幀光度一致性損失進行3D幾何預訓練,這是一種自監(jiān)督深度估計技術,其中算法根據渲染的深度和相對姿態(tài)將相鄰幀投影到當前幀。

相關工作

自動駕駛中的預訓練

在自動駕駛中,預訓練已經被廣泛應用,來提高在多樣化駕駛環(huán)境中的可擴展性和適應性?,F有的方法可以分為:

  • 監(jiān)督學習
  • 對比學習
  • Masked AutoEncoder
  • 基于渲染的方法。

監(jiān)督學習方法利用標注的駕駛數據來學習針對特定任務的結構化表示。對比學習方法使用正負成對數據來學習在駕駛場景內變化中保持魯棒的區(qū)分性、視角不變的表示。Masked AutoEncoder方法重建被遮擋或掩碼的感官信號,促進對場景語義的整體理解。最近基于渲染的預訓練進展提出了新的策略,通過將視覺特征整合到統一的體積表示中進行渲染,從而為自動駕駛感知提供新的策略。與先前工作的關鍵區(qū)別在于這些基于渲染的方法使用了神經渲染,有效地強制編碼在體積特征中豐富的幾何和外觀線索。UniPAD引入了一個掩碼生成器用于部分輸入遮擋,以及一個模態(tài)特定的編碼器在體素空間中提取多模態(tài)特征,然后基于體積的神經渲染用于RGB和深度預測。ViDAR基于歷史周圍圖像觀察預測未來的點云。MIM4D以掩碼多幀多視圖圖像為輸入,使用體積渲染重建目標RGB和深度。BEVWorld將圖像和LiDAR數據編碼為BEV標記,并使用NeRF渲染進行重建,結合了一個潛在的BEV序列擴散模型來預測基于相應動作的未來BEV標記。然而,上述方法仍然嚴重依賴于顯式的深度監(jiān)督,這在僅限相機的場景中限制了它們的應用。

自動駕駛中的3D Gaussian Splatting

最近,基于3D Gaussian Splatting(3D-GS)的方法獲得了顯著的關注。3D-GS允許使用3D高斯原語表示場景,通過光柵化實現最小內存占用的實時渲染。已經提出了幾種使用這種技術重建駕駛場景的方法。PVG引入了周期振動高斯用于大規(guī)模動態(tài)駕駛場景重建。DrivingGaussian層次化地使用順序多傳感器數據建模復雜的駕駛場景。此外,StreetGaussians結合了跟蹤姿態(tài)優(yōu)化策略和4D球諧外觀模型來解決移動車輛的動態(tài)問題。HUGS引入了一個新穎的流程,利用3D Gaussian Splatting進行整體城市場景理解。這種方法涉及使用靜態(tài)和動態(tài)3D高斯的幾何、外觀、語義和運動的聯合優(yōu)化。最近也有一些工作利用3D-GS進行占用和BEV感知。

然而,作者表示3D-GS在自動駕駛預訓練中的應用尚未被探索。

方法論

模型概述

VisionPAD的整體框架如圖2所示,包含四個關鍵模塊:

  • 首先,VisionPAD采用歷史多幀多視圖圖像,并利用具有顯式表示的視覺中心感知網絡作為主干。
  • 其次,一個新穎的3D Gaussian Splatting(3D-GS)解碼器從體素表示中重建當前幀的多視圖圖像。
  • 第三,提出了一種體素速度估計策略,預測體素速度,使得當前幀的體素特征可以扭曲到目標幀。這有助于通過3D-GS解碼器重建多視圖相鄰幀圖像和深度圖。
  • 最后,利用當前幀的目標深度圖,通過光度一致性損失納入3D幾何約束。

圖片

體積構建

3D Gaussian Splatting解碼器

預備知識

與體積渲染不同,3D-GS通過基于splat的光柵化高效渲染,將3D高斯投影到目標2D視圖,并使用局部2D高斯渲染圖像塊。作者觀察到,當僅使用RGB監(jiān)督進行預訓練時,NeRF每次迭代只能采樣有限數量的射線,限制了其學習詳細場景幾何的能力。相比之下,3D-GS以其高效的基于splat的光柵化,展現出對圖像分辨率不太敏感的計算成本,能夠渲染更高分辨率的圖像,并促進表示學習。

原語預測

自監(jiān)督體素速度估計

在本文中,作者引入了一種自監(jiān)督方法來估計每個體素的速度,利用場景中對象的固有時間一致性。這種運動信息豐富了表示,并有助于動態(tài)場景的理解。速度引導體素扭曲。如圖3所示,附加到體素特征的輔助速度頭在世界坐標中回歸每個體素的速度向量。之后,作者通過將預測的速度按幀間時間間隔縮放,近似每個體素的流動,使得體素特征從當前幀變換到相鄰幀。隨后,作者將體素特征扭曲到相鄰幀中的估計位置。上述過程可以通過GridSample操作符輕松實現相鄰幀渲染。在獲得相鄰幀的扭曲體素特征后,作者使用3D-GS解碼器渲染多視圖圖像。然后,這些渲染的圖像與相鄰幀的相應真實圖像使用監(jiān)督損失進行比較。值得注意的是,在反向傳播期間,只有速度頭的參數被更新。這種針對性的優(yōu)化策略鼓勵網絡優(yōu)先學習區(qū)分性運動特征,從而提高性能。

圖片

光度一致性

預訓練損失

其中ω_1, ω_2 和 ω_3 的權重分別為0.5, 1, 1。

實驗及結果

實驗設置

作者在MMDetection3D框架下實現。在nuScenes數據集上評估其方法。使用標準的nuScenes Detection Score (NDS) 和平均精度均值(mAP)來評估3D目標檢測任務。語義占用預測和地圖分割的性能分別使用平均交并比(mIoU)和交并比(IoU)進行評估。

主要結果

作者在三個具有挑戰(zhàn)性的下游感知任務上評估VisionPAD的有效性:3D目標檢測、語義占用預測和地圖分割。3D目標檢測的可視化結果可以在圖5中找到。

圖片

3D目標檢測

如表1所示,作者在nuScenes驗證集上將VisionPAD與最先進的視覺中心3D目標檢測方法進行基準測試。以UVTR作為基線,作者報告了使用UniPAD預訓練所達到的性能。盡管僅使用圖像數據進行訓練,VisionPAD在基線上顯示出顯著的改進,在沒有多幀輸入的情況下,NDS和mAP分別提高了1.7和3.8。值得注意的是,沒有測試時增強、模型集成或LiDAR監(jiān)督,VisionPAD達到了49.7 NDS和41.2 mAP,超過了現有的最先進方法。相比之下,在同一監(jiān)督信號下,UniPAD預訓練僅比基線略有提高,甚至在NDS上從45.0略微下降到44.8。雖然將LiDAR投影的深度圖作為額外監(jiān)督可以提高性能,但這突顯了僅依賴于從RGB圖像中獲得的幾何監(jiān)督的局限性,這限制了泛化能力。VisionPAD以其強大的顯式深度監(jiān)督,一致性地優(yōu)于UniPAD,展示了作者提出的方法的有效性。

圖片

語義占用預測

如表2所示,作者的僅圖像模態(tài)預訓練方法超過了某些3D檢測監(jiān)督預訓練方法,達到了35.4%,與TPVFormer的34.2%相比。此外,其性能甚至與利用長時間線索的方法相當。在相同設置下,作者的預訓練技術顯著提高了mIoU性能,從UVTR的30.1%提高到35.4%。值得注意的是,在預訓練期間沒有深度監(jiān)督,UniPAD僅實現了1%的mIoU提升。即使使用更強的基線(即BEVDet),使用七個歷史幀作為輸入,使用VisionPAD預訓練仍然顯著提高了性能,從39.3%提高到42.0%。這些結果突出了VisionPAD在密集占用預測中的有效性。

圖片

地圖分割

表3展示了作者的方法和UniPAD在地圖分割任務上的性能提升。作者以UVTR作為基線,并使用UniAD的地圖解碼器進行地圖分割預測。結果表明,UniPAD僅比UVTR提高了1.3%,而VisionPAD大幅提升了5.4%的性能。

圖片

寫在最后

本文介紹了VisionPAD,這是一個新穎的自監(jiān)督預訓練框架,用于自動駕駛中的視覺中心算法。利用 Gaussian Splatting、自監(jiān)督體素速度估計和光度一致性方法,VisionPAD消除了對顯式深度監(jiān)督的依賴。作者的結果表明,與需要深度監(jiān)督的現有基于神經渲染的方法相比,VisionPAD在性能上有所提高,并且降低了計算開銷。這項工作為高效、可擴展的自監(jiān)督視覺中心預訓練建立了一個新的范式。

責任編輯:張燕妮 來源: 自動駕駛之心
相關推薦

2022-11-28 14:00:24

人工智能

2023-09-06 09:59:12

雷達技術

2024-11-01 10:40:00

自動駕駛智能汽車

2022-01-06 09:57:02

數據計算機神經網絡

2024-06-26 09:57:24

2024-12-12 10:20:00

自動駕駛生成

2023-03-28 16:01:01

PytorchSimCLR算法

2024-10-12 10:29:11

計算機圖形

2023-11-10 09:31:29

自動駕駛訓練

2025-03-17 09:12:00

訓練模型AI

2025-04-11 09:35:34

2020-07-29 12:16:12

預訓練自訓練神經網絡

2024-09-11 09:36:13

2021-10-13 17:28:33

AI 數據人工智能

2025-06-13 09:29:51

2025-06-11 14:45:57

強化學習訓練模型

2023-10-25 09:50:07

自動駕駛訓練

2024-11-28 09:31:44

2024-04-29 09:43:21

傳感器激光雷達

2024-12-18 07:20:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩欧美在线观看 | 中文字幕日本一区二区 | 日本天天操 | 欧美日韩高清在线观看 | 欧美日韩一卡 | 精品久久久久久一区二区 | 久久久免费精品 | 日本福利视频 | 欧美第一页 | 成人在线网址 | 草草网| 精品亚洲一区二区三区四区五区 | 亚洲精品国产a久久久久久 午夜影院网站 | 成人动漫视频网站 | 国产乱码精品一区二区三区忘忧草 | 日韩三级在线 | 久久国产成人 | 在线国产一区 | 久久久久久久久久久国产 | 福利网址 | 夜夜精品视频 | 久久久一区二区三区 | 春色av| 国产精品三级久久久久久电影 | 欧美电影网| 丝袜美腿一区二区三区动态图 | 国产91丝袜在线熟 | 请别相信他免费喜剧电影在线观看 | 亚洲日韩中文字幕 | 日韩一区二区三区四区五区六区 | 欧美美女爱爱视频 | a免费视频 | 看a网站 | 国产精品一区在线 | av在线一区二区三区 | 乱一性一乱一交一视频a∨ 色爱av | 久久久一二三区 | 亚洲一区 中文字幕 | 欧美在线一级 | 欧美一级久久精品 | 香蕉一区 |