成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何一次性訓練100,000+個Vision Transformers?

新聞 人工智能
我們發(fā)現(xiàn)了一項非常厲害的研究,號稱可一次性訓練10萬個ViT,論文也剛剛喜提ICCV accepted!

[[413052]]

本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán)。

經(jīng)過漫長的等待,ICCV 2021終于迎來放榜時刻!

ICCV官方在推特上公布了這一消息,并表示今年共有6236篇投稿,最終1617篇論文被接收,接收率為25.9%,相比于2017年(約29%),保持了和2019年相當?shù)妮^低水平。

而投稿量則依舊逐年大幅增長,從2017年的2143篇,到2109年的4328篇,再到如今的6236篇,相比上一屆多了50%左右。

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

你看郵件的時候是這表情嗎?

[[413053]]

不得不說,官方皮起來也是接地氣、真扎心、沒誰了哈哈~

論文ID地址:https://docs.google.com/spreadsheets/u/1/d/e/2PACX-1vRfaTmsNweuaA0Gjyu58H_Cx56pGwFhcTYII0u1pg0U7MbhlgY0R6Y-BbK3xFhAiwGZ26u3TAtN5MnS/pubhtml

也就在今天,AI科技評論發(fā)現(xiàn)了一項非常厲害的研究,號稱可一次性訓練10萬個ViT,論文也剛剛喜提ICCV accepted!

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

近來,Vision Transformer (ViT) 模型在諸多視覺任務中展現(xiàn)出了強大的表達能力和潛力。

紐約州立大學石溪分校與微軟亞洲研究院的研究人員提出了一種新的網(wǎng)絡結(jié)構(gòu)搜索方法AutoFormer,用來自動探索最優(yōu)的ViT模型結(jié)構(gòu)。

AutoFormer能一次性訓練大量的不同結(jié)構(gòu)的ViT模型,并使得它們的性能達到收斂。

其搜索出來的結(jié)構(gòu)對比手工設計的ViT模型有較明顯的性能提升。

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

方法亮點:

  • 同時訓練大量Vision Transformers模型,使其性能接近單獨訓練;

  • 簡單有效,能夠靈活應用于Vision Transformer的變種搜索;

  • 性能較ViT, DeiT等模型有較明顯提升。

論文地址:https://arxiv.org/abs/2107.00651

代碼地址:https://github.com/microsoft/AutoML/tree/main/AutoFormer

1. 引言

最近的研究發(fā)現(xiàn),ViT能夠從圖像中學習強大的視覺表示,并已經(jīng)在多個視覺任務(分類,檢測,分割等)上展現(xiàn)出了不俗的能力。

然而,Vision Transformer 模型的結(jié)構(gòu)設計仍然比較困難。例如,如何選擇最佳的網(wǎng)絡深度、寬度和多頭注意力中的頭部數(shù)量?

作者的實驗發(fā)現(xiàn)這些因素都和模型的最終性能息息相關(guān)。然而,由于搜索空間非常龐大,我們很難人為地找到它們的最佳組合。   

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers? 

 

 

圖1: 不同搜索維度的變化會極大地影響模型的表現(xiàn)能力

本文的作者提出了一種專門針對Vision Transformer 結(jié)構(gòu)的新的Neural Architecture Search (NAS) 方法 AutoFormer。AutoFormer大幅節(jié)省了人為設計結(jié)構(gòu)的成本,并能夠自動地快速搜索不同計算限制條件下ViT模型各個維度的最佳組合,這使得不同部署場景下的模型設計變得更加簡單。

 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

 圖2: AutoFormer的結(jié)構(gòu)示意圖,在每一個訓練迭代中,超網(wǎng)會動態(tài)變化并更新相應的部分權(quán)重

2. 方法

常見的One-shot NAS 方法[1, 2, 3]通常采取權(quán)重共享的方式來節(jié)省計算開銷,搜索空間被編碼進一個權(quán)重共享的超網(wǎng) (supernet) 中,并運用超網(wǎng)權(quán)重作為搜索空間中結(jié)構(gòu)權(quán)重的一個估計。其具體搜索過程可分為兩個步驟,第一步是更新超網(wǎng)的權(quán)重,如下公式所示。

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

第二步是利用訓練好的超網(wǎng)權(quán)重來對搜索空間中結(jié)構(gòu)進行搜索。

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

在實驗的過程中,作者發(fā)現(xiàn)經(jīng)典One-shot  NAS方法的權(quán)重共享方式很難被有效地運用到Vision Transformer的結(jié)構(gòu)搜索中。這是因為之前的方法通常僅僅共享結(jié)構(gòu)之間的權(quán)重,而解耦同一層中不同算子的權(quán)重。

如圖3所示,在Vision Transformer的搜索空間中,這種經(jīng)典的策略會遇到收斂緩慢和性能較低的困難。 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

圖3 權(quán)重糾纏和經(jīng)典權(quán)重共享的訓練以及測試對比

受到OFA [4], BigNAS [5] 以及Slimmable networks [6, 7] 等工作的啟發(fā),作者提出了一種新的權(quán)重共享方式——權(quán)重糾纏 (Weight Entanglement)。

如圖4所示,權(quán)重糾纏進一步共享不同結(jié)構(gòu)之間的權(quán)重,使得同一層中不同算子之間能夠互相影響和更新,實驗證明權(quán)重糾纏對比經(jīng)典的權(quán)重共享方式,擁有占用顯存少,超網(wǎng)收斂快和超網(wǎng)性能高的優(yōu)勢。

同時,由于權(quán)重糾纏,不同算子能夠得到更加充分的訓練,這使得AutoFormer能夠一次性訓練大量的ViT模型,且使其接近收斂。(詳情見實驗部分) 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

圖4 權(quán)重糾纏和權(quán)重共享的對比示意圖

3. 實驗

作者設計了一個擁有超過1.7x10^17備選結(jié)構(gòu)的巨大搜索空間,其搜索維度包括ViT模型中的五個主要的可變因素:寬度 (embedding dim)、Q-K-V 維度 (Q-K-V dimension)、頭部數(shù)量 (head number)、MLP 比率 (MLP ratio) 和網(wǎng)絡深度 (network depth),詳見表1。 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

表1:AutoFormer的搜索空間

為了驗證方法的有效性,作者將AutoFormer搜索得到的結(jié)構(gòu)和近期提出的ViT模型以及經(jīng)典的CNN模型在ImageNet上進行了比較。

對于訓練過程,作者采取了DeiT [8]類似的數(shù)據(jù)增強方法,如 Mixup, Cutmix, RandAugment等, 超網(wǎng)的具體訓練參數(shù)如表2所示。所有模型都是在 16塊Tesla V100 GPU上進行訓練和測試的。 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

表2 超網(wǎng)的訓練參數(shù)

如圖5 和表3所示,搜索得到的結(jié)構(gòu)在ImageNet數(shù)據(jù)集上明顯優(yōu)于已有的ViT模型。 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

表3:各個模型在ImageNet 測試集上的結(jié)果

從表4中可以看出,在下游任務中,AutoFormer依然表現(xiàn)出色,利用僅僅25%的計算量就超越了已有的ViT和DeiT模型,展現(xiàn)了其強大的泛化性能力。 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

表4:下游分類任務遷移學習的結(jié)果

同時,如圖5所示,利用權(quán)重糾纏,AutoFormer能夠同時使得成千上萬個Vision Transformers模型得到很好的訓練(藍色的點代表從搜索空間中選出的1000個較好的結(jié)構(gòu))。

不僅僅使得其在搜索后不再需要重新訓練(retraining)結(jié)構(gòu),節(jié)約了搜索時間,也使得其能在各種不同的計算資源限制下快速搜索最優(yōu)結(jié)構(gòu)。 

 

 

ICCV 2021放榜!發(fā)現(xiàn)一篇寶藏論文——如何一次性訓練100,000+個Vision Transformers?

 

 

圖5:左:AutoFormer能夠同時訓練大量結(jié)構(gòu),并使得其接近收斂。藍色的點代表從搜索空間中選出的1000個較好的結(jié)構(gòu)。右:ImageNet上各模型對比

4. 結(jié)語

本文提出了一種新的專用于Vision Transformer結(jié)構(gòu)搜索的One-shot NAS方法—— AutoFormer。AutoFormer 配備了新的權(quán)重共享機制,即權(quán)重糾纏 (Weight Engtanglement)。在這種機制下,搜索空間的網(wǎng)絡結(jié)構(gòu)幾乎都能被充分訓練,省去了結(jié)構(gòu)搜索后重新訓練(Retraining)的時間。大量實驗表明所提出的算法可以提高超網(wǎng)的排序能力并找到高性能的結(jié)構(gòu)。在文章的最后,作者希望通過本文給手工ViT結(jié)構(gòu)設計和NAS+Vision Transformer提供一些靈感。在未來工作,作者將嘗試進一步豐富搜索空間,以及給出權(quán)重糾纏的理論分析。

 

責任編輯:張燕妮 來源: 雷鋒網(wǎng)
相關(guān)推薦

2023-09-26 07:11:15

KubernetesJob節(jié)點

2024-04-26 10:12:38

混合訓練AI集群

2014-08-04 14:38:25

LinuxToken

2013-04-17 09:16:37

2024-02-28 08:18:13

Java日志項目

2011-04-18 13:36:42

2019-06-24 08:17:55

CPUFullGCJava

2021-08-12 09:48:21

Webpack Loa工具Webpack

2019-08-06 09:21:45

2020-05-28 08:29:54

目錄腳本測試

2009-12-25 14:46:53

Windows 7文件關(guān)聯(lián)

2014-03-06 15:16:18

安全管理linux安全

2010-11-24 16:32:50

2012-09-18 15:04:31

Office 2013微軟

2019-11-11 10:20:10

Linux重命名命令

2015-04-09 09:08:20

2024-07-17 11:27:26

2012-02-01 16:48:54

后門Putty

2024-04-03 09:00:10

2021-10-06 17:05:59

Python函數(shù)字典
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 一区影院 | 99reav| 久久免费看 | 亚洲女人天堂成人av在线 | 精品中文字幕一区 | 欧州一区 | 老司机久久 | 国产精品区二区三区日本 | 日本高清视频在线播放 | www.中文字幕av | 亚洲久草| 国产精品久久久久久二区 | 亚洲一区二区三区国产 | 天天射天天干 | www.9191.com | 免费看91 | 无码日韩精品一区二区免费 | 一区二区在线不卡 | 欧美精品1区2区3区 精品国产欧美一区二区 | 欧美亚洲一区二区三区 | 一区二区精品 | 久久久精彩视频 | 久久精品一区二区视频 | 国产日韩电影 | 午夜在线视频 | 国产精品99久久久久久动医院 | 91在线视频国产 | 久久黄视频 | 久久久久久久久久久一区二区 | 亚洲淫视频| 国产精品久久久久久久久久久久 | 国产精品成人久久久久 | 国产精品久久在线 | 亚洲成人播放器 | 国产成人精品一区二区三区四区 | 亚洲天堂色 | 国产成人啪免费观看软件 | 国产日韩精品一区二区 | 久久久91精品国产一区二区精品 | 欧美日韩一区二区在线观看 | 色99视频 |