成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

PVTransformer: 可擴(kuò)展3D檢測的點(diǎn)到體素Transformer

人工智能 智能汽車
本文旨在為大規(guī)模3D目標(biāo)檢測器實(shí)現(xiàn)更好的可擴(kuò)展性,并發(fā)現(xiàn)基于池化的PointNet為現(xiàn)代3D目標(biāo)檢測器引入了信息瓶頸。

本文經(jīng)自動駕駛之心公眾號授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

原標(biāo)題:PVTransformer: Point-to-Voxel Transformer for Scalable 3D Object Detection

論文鏈接:https://arxiv.org/pdf/2405.02811

作者單位:Waymo Research

圖片

論文思路:

點(diǎn)云的3D目標(biāo)檢測器通常依賴于基于池化的PointNet [20],將稀疏點(diǎn)編碼成類似網(wǎng)格的體素或 pillars。本文識別出常見的PointNet設(shè)計(jì)引入了一個信息瓶頸,限制了3D目標(biāo)檢測的準(zhǔn)確性和可擴(kuò)展性。為了解決這一限制,本文提出了PVTransformer:一種基于Transformer的點(diǎn)到體素架構(gòu)用于3D檢測。本文的關(guān)鍵思想是用注意力模塊替換PointNet的池化操作,從而實(shí)現(xiàn)更好的點(diǎn)到體素聚合函數(shù)。本文的設(shè)計(jì)尊重稀疏3D點(diǎn)的置換不變性,同時比基于池化的PointNet更具表現(xiàn)力。實(shí)驗(yàn)結(jié)果顯示,本文的PVTransformer在性能上比最新的3D目標(biāo)檢測器有顯著提升。在廣泛使用的Waymo Open Dataset上,本文的PVTransformer達(dá)到了76.5 mAPH L2的最新水平,超越了之前的SWFormer [27] +1.7 mAPH L2。

主要貢獻(xiàn):

新架構(gòu):引入了一種基于注意力的點(diǎn)-體素架構(gòu),即PVTransformer,旨在解決PointNet的池化限制問題。

新穎的擴(kuò)展研究:啟動對基于Transformer的3D檢測器架構(gòu)可擴(kuò)展性的探索。

廣泛研究:通過廣泛的架構(gòu)搜索,本文展示了所提出的PVTransformer架構(gòu)的有效性,其在Waymo Open Dataset上達(dá)到了76.5 mAPH L2的最新水平。

網(wǎng)絡(luò)設(shè)計(jì):

在城市環(huán)境中的自動駕駛3D目標(biāo)檢測需要處理大量稀疏且無序的點(diǎn),這些點(diǎn)散布在開放的三維空間中。為了管理點(diǎn)的不規(guī)則分布,現(xiàn)有方法將點(diǎn)聚合成二維或三維體素表示 [35],利用PointNet類型的特征編碼器 [20] 將點(diǎn)特征聚合到體素中,隨后通過主干網(wǎng)絡(luò)和檢測頭進(jìn)行處理。然而,現(xiàn)有的點(diǎn)架構(gòu)往往被忽視,并因其簡約設(shè)計(jì)而受到限制,即少數(shù)幾個全連接層后跟一個最大池化層。正如原始論文 [20] 所強(qiáng)調(diào)的,PointNet類型模塊的關(guān)鍵在于最大池化層,它從無序點(diǎn)中提取信息并作為聚合函數(shù)。盡管利用了眾多全連接層進(jìn)行特征提取,但體素內(nèi)所有點(diǎn)的特征通過一個簡單的池化層進(jìn)行組合。本文觀察到,3D目標(biāo)檢測中的普通池化操作引入了信息瓶頸,阻礙了現(xiàn)代3D目標(biāo)檢測器的性能。與圖像識別中的標(biāo)準(zhǔn)2D最大池化不同,后者作用于有限的像素集,3D檢測器中的點(diǎn)-體素池化層必須聚合大量無序點(diǎn)。例如,在Waymo Open Dataset [26] 中,常見一個0.32m × 0.32m的體素中有超過100個點(diǎn),這些點(diǎn)被池化成一個單一的體素特征向量。這導(dǎo)致了在池化層之后點(diǎn)特征的顯著信息損失。

為了解決基于池化的PointNet架構(gòu)的局限性,本文引入了PVTransformer,這是一種基于Transformer [29] 的新型注意力點(diǎn)-體素架構(gòu),用于3D目標(biāo)檢測。PVTransformer的目標(biāo)是通過注意力模塊端到端學(xué)習(xí)點(diǎn)到體素的編碼函數(shù),以緩解現(xiàn)代3D目標(biāo)檢測器中由于池化操作引入的信息瓶頸。在PVTransformer中,每個體素中的每個點(diǎn)被視為一個token,并使用單個查詢向量來查詢所有點(diǎn)tokens,從而聚合并編碼體素內(nèi)所有點(diǎn)特征到單一的體素特征向量中。PVTransformer中的基于注意力的聚合模塊作為一個集合操作符(set operator),保持了排列不變性,但比最大池化更具表現(xiàn)力。值得注意的是,與其他基于Transformer的點(diǎn)網(wǎng)絡(luò)如Point Transformer [32] 使用池化來聚合點(diǎn)不同,PVTransformer旨在學(xué)習(xí)特征聚合函數(shù),而無需依賴啟發(fā)式的池化操作。

本文在Waymo Open Dataset上評估了PVTransformer,這是目前最大的公開3D點(diǎn)云數(shù)據(jù)集 [26]。實(shí)驗(yàn)結(jié)果表明,PVTransformer通過改進(jìn)點(diǎn)到體素的聚合,顯著優(yōu)于之前基于PointNet的3D目標(biāo)檢測器。此外,PVTransformer使本文能夠擴(kuò)展模型,實(shí)現(xiàn)了新的最先進(jìn)水平:在車輛和行人檢測中分別達(dá)到了76.1 mAPH L2和85.0/84.7 AP L1。值得注意的是,本文的體素主干網(wǎng)絡(luò)和損失設(shè)計(jì)主要基于先前的SWFormer [27],但本文新提出的點(diǎn)到體素Transformer相比基線SWFormer提高了+1.7 mAPH L2。

圖1:PVTransformer(PVT)作為一種可擴(kuò)展的架構(gòu)。PVTransformer解決了之前基于體素的3D檢測器中的池化瓶頸,并展示了相較于擴(kuò)展PointNet(Scale Point)和體素架構(gòu)(Scale Voxel)更好的可擴(kuò)展性。每個點(diǎn)的大小表示模型的Flops。更多細(xì)節(jié)請參見圖4和圖5。

圖片

圖2:PVTransformer架構(gòu)概述。PVTransformer架構(gòu)包含點(diǎn)架構(gòu)和體素架構(gòu)。其創(chuàng)新之處在于點(diǎn)架構(gòu),用一種新穎的Transformer設(shè)計(jì)替代了PointNet。在點(diǎn)架構(gòu)中,點(diǎn)被分組到pillars內(nèi),每個pillars被視為一個token。在一個體素內(nèi),點(diǎn)首先經(jīng)過自注意力Transformer,然后通過交叉注意力Transformer將點(diǎn)特征聚合為體素特征,詳細(xì)信息見圖3(b)。稀疏的BEV體素特征隨后進(jìn)入體素架構(gòu),采用多尺度稀疏窗口Transformer(SWFormer Block)[27]進(jìn)行編碼,并使用CenterNet頭進(jìn)行邊界框預(yù)測[31]。

圖3:PVTransformer中的點(diǎn)到體素聚合。該模塊使用Transformer層替代了PointNet的最大池化[20]。

圖4:PVTransformer:更好的可擴(kuò)展性。增加PointNet(PN)的深度(紅色,紫色)和通道(黃色)僅帶來適度的性能提升,而擴(kuò)展PVTransformer PVT(綠色)則顯示出顯著的性能提升。之前的工作中,無論是單尺度(SS)[4]還是多尺度(MS)[27]架構(gòu),都使用PointNet進(jìn)行點(diǎn)特征聚合,但在超過某些閾值時性能不佳,導(dǎo)致過擬合。PVTransformer(綠色)通過引入基于Transformer的點(diǎn)到體素編碼器,克服了這些限制,使其能夠有效擴(kuò)展超過 300 GFlops,并在Waymo Open Dataset驗(yàn)證集上實(shí)現(xiàn)了車輛和行人檢測的74.0 mAPH L2。

圖5:當(dāng)使用PointNet(PN)來聚合點(diǎn)特征時,體素架構(gòu)的可擴(kuò)展性有限。右圖:使用Transformer來聚合點(diǎn)特征(PVT L)(綠色)顯著優(yōu)于使用PointNet并僅在體素架構(gòu)中將通道擴(kuò)展到256(藍(lán)色),在相似的Flops下提高了3.5 mAPH L2。左圖:從搜索空間(見表V)中隨機(jī)采樣的體素架構(gòu)在訓(xùn)練12.8個epoch后的性能表現(xiàn)。本文觀察到,使用PointNet擴(kuò)展體素架構(gòu)可能導(dǎo)致次優(yōu)性能。帕累托曲線(紅色曲線)顯示,將體素架構(gòu)的通道數(shù)從128擴(kuò)展到192和256會導(dǎo)致過擬合。在Waymo Open Dataset驗(yàn)證集上報(bào)告了車輛和行人的mAPH L2。

實(shí)驗(yàn)結(jié)果:

總結(jié):

本文旨在為大規(guī)模3D目標(biāo)檢測器實(shí)現(xiàn)更好的可擴(kuò)展性,并發(fā)現(xiàn)基于池化的PointNet為現(xiàn)代3D目標(biāo)檢測器引入了信息瓶頸。為了解決這一限制,本文提出了一個新的PVTransformer架構(gòu),該架構(gòu)使用基于注意力機(jī)制的Transformer將點(diǎn)特征聚合到體素特征中。本文證明了這種點(diǎn)到體素的Transformer比簡單的PointNet池化層更具表現(xiàn)力,因此在性能上遠(yuǎn)遠(yuǎn)超過了以往的3D目標(biāo)檢測器。本文的PVTransformer顯著優(yōu)于之前的技術(shù),如SWFormer,并在具有挑戰(zhàn)性的Waymo Open Dataset上實(shí)現(xiàn)了新的最先進(jìn)的結(jié)果。

責(zé)任編輯:張燕妮 來源: 自動駕駛之心
相關(guān)推薦

2022-12-29 11:57:43

3D框架

2023-10-09 09:42:18

自動駕駛模型

2021-03-18 15:29:10

人工智能機(jī)器學(xué)習(xí)技術(shù)

2025-04-11 09:44:23

2023-12-29 10:06:00

AI3D

2024-01-15 10:38:24

3D框架

2011-10-06 13:30:45

宏碁投影儀

2012-11-26 12:51:44

木材3D打

2012-06-16 16:57:52

WebGL

2011-06-15 13:08:59

2011-05-26 10:55:39

2022-12-16 09:44:39

3D智能

2011-05-26 10:05:07

優(yōu)派投影機(jī)

2011-05-06 13:05:12

微星3D

2011-04-26 14:21:20

3DJVC投影機(jī)

2011-08-26 14:50:23

2023-03-03 21:42:18

鴻蒙

2012-08-13 17:11:37

Silverlight

2024-01-26 10:02:51

自動駕駛3D

2011-09-22 10:07:52

奧圖碼投影儀
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 欧美一区二区免费 | 久久久影院 | 国产精品久久久一区二区三区 | 色伊人久久 | 国产成人精品一区二区三区网站观看 | 国产成人免费视频 | 日本成人在线观看网站 | 日韩免费| 天堂色 | 日韩精品人成在线播放 | 久久久久无码国产精品一区 | 精品一区二区三区四区五区 | 久久精品亚洲一区二区三区浴池 | 国产精品区二区三区日本 | 久久久爽爽爽美女图片 | 中文字幕一区二区三区四区五区 | 亚洲成人一区二区三区 | 午夜二区| 成人精品一区二区三区中文字幕 | 成人在线电影在线观看 | 亚洲毛片在线 | 国产色网站 | 欧美日韩久久 | 亚洲欧美日韩激情 | 九九热免费视频在线观看 | 久久久区 | 久久国产秒 | 国产精品区二区三区日本 | 二区高清| 欧洲国产精品视频 | 成人免费在线 | 久久久91精品国产一区二区三区 | 国产精品国产成人国产三级 | 黄色大片免费网站 | 日韩成人国产 | 色女人天堂 | 精品久久久久久久久久 | 中文字幕在线免费观看 | 亚洲 精品 综合 精品 自拍 | 国产精品99久久久久久动医院 | 精品久久不卡 |