成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

2019年的最后一個月,這里有6種你必須要知道的最新剪枝技術(shù)

新聞 深度學習
對于剪枝技術(shù),你了解多少?這里有一份秘籍,整理了 2019 年度的 6 篇論文所提到的最新剪枝方法。

對于剪枝技術(shù),你了解多少?這里有一份秘籍,整理了 2019 年度的 6 篇論文所提到的最新剪枝方法。

[[285686]]

剪枝是一種幫助神經(jīng)網(wǎng)絡(luò)實現(xiàn)規(guī)模更小、效率更高的深度學習方法。這是一種模型優(yōu)化技術(shù),它刪除權(quán)重張量中不必要的值,從而使得壓縮后的神經(jīng)網(wǎng)絡(luò)運行速度更快,網(wǎng)絡(luò)訓練過程中的計算成本也有所降低。在將模型部署到手機等邊緣設(shè)備上時,剪枝的作用更加明顯現(xiàn)。

本篇精選了神經(jīng)網(wǎng)絡(luò)剪枝領(lǐng)域的一些研究論文,供大家學習參考。

論文 1:Pruning from Scratch (2019)

作者提出了一種從頭開始剪枝的網(wǎng)絡(luò)剪枝流程。他們在 CIFAR10 和 ImageNet 數(shù)據(jù)集上對多個壓縮分類模型進行了試驗,結(jié)果表明該流程降低了正常剪枝方法的預訓練開銷,同時提高了網(wǎng)絡(luò)的準確率。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文鏈接:https://arxiv.org/pdf/1909.12579.pdf

下圖展示了傳統(tǒng)剪枝流程的三個階段:預訓練、剪枝和微調(diào)。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

這篇論文提出的剪枝技術(shù)包括可基于隨機初始化權(quán)重學得的新的剪枝流程。通道重要性(channel importance)則可通過關(guān)聯(lián)標量門控(scalar gate)值和每個網(wǎng)絡(luò)層來學得。

優(yōu)化通道重要性,可在稀疏性正則化的情況下提高模型性能。在此過程中,隨機權(quán)重并未得到更新。然后,基于給定資源約束,使用二分搜索策略確定剪枝后模型的通道數(shù)配置。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

下表展示了模型在不同數(shù)據(jù)集上的準確率:

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文 2:Adversarial Neural Pruning (2019) 

這篇論文主要探討在遇到對抗擾動時網(wǎng)絡(luò)隱特征的失真問題。該論文提出的方法是:學習貝葉斯剪枝掩碼,來抑制較高級的失真特征,從而最大化其面對對抗擾動的穩(wěn)健性。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文鏈接:https://arxiv.org/pdf/1908.04355.pdf

作者考慮了深度神經(jīng)網(wǎng)絡(luò)中隱特征的脆弱性。該方法提出剪除脆弱的特征,同時保留穩(wěn)健的特征。這一過程可通過在貝葉斯框架中對抗地學習剪枝掩碼來完成。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

對抗神經(jīng)剪枝(Adversarial Neural Pruning,ANP)結(jié)合了對抗訓練和貝葉斯剪枝方法。該論文提出的新模型及其基線模型是: 

  • 標準的卷積神經(jīng)網(wǎng)絡(luò)(Standard)
  • 使用貝塔-伯努利 dropout(beta-Bernoulli dropout)的 base 網(wǎng)絡(luò),即貝葉斯剪枝(BP)
  • 對抗訓練網(wǎng)絡(luò)(AT)
  • 使用貝塔-伯努利 dropout 的對抗神經(jīng)剪枝(ANP)
  • 使用脆弱抑制損失(vulnerability suppression loss)進行正則化得到的對抗訓練網(wǎng)絡(luò)(AT-VS)
  • 使用脆弱抑制損失進行正則化得到的對抗神經(jīng)剪枝網(wǎng)絡(luò)(ANP-VS)

下表展示了模型的性能:

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文 3:Rethinking the Value of Network Pruning (ICLR 2019) 

這篇論文提出的網(wǎng)絡(luò)剪枝方法分為兩類,目標剪枝模型的架構(gòu)由人類或剪枝算法來決定。在實驗中,作者對比了從頭開始訓練剪枝模型和基于繼承權(quán)重進行微調(diào)得到的剪枝模型的結(jié)果,該對比針對預定義方法和自動化方法。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文鏈接:https://arxiv.org/pdf/1810.05270v2.pdf

下圖展示了使用基于 L1 范數(shù)的濾波器剪枝的預定義結(jié)構(gòu)化剪枝所得到的結(jié)果。每一層都使用較小的 L1 范數(shù)剪掉一定比例的濾波器。「Pruned Model」列是用于配置每個模型的預定義目標模型列表。我們可以看到,每一行中,從頭開始訓練的模型性能至少與微調(diào)模型持平。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

如下表所示,ThiNet 貪婪地剪去了對下一層的激活值影響最小的通道。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

下表展示了基于回歸的特征重建方法的結(jié)果。該方法最小化了下一層的特征圖重建誤差,從而實現(xiàn)對通道剪枝。該優(yōu)化問題可以通過 LASSO 回歸解決。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

至于 Network Slimming,在訓練過程中,對批歸一化層中的通道級縮放因子施加 L1 稀疏性。之后,利用較低的縮放因子對通道剪枝。由于通道縮放因子經(jīng)過跨層對比,因此該方法能夠得到自動發(fā)現(xiàn)的目標架構(gòu)。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文 4:Network Pruning via Transformable Architecture Search (NeurIPS 2019)

這篇論文提出了直接對具備靈活通道數(shù)和層數(shù)的網(wǎng)絡(luò)應(yīng)用神經(jīng)架構(gòu)搜索。實現(xiàn)剪枝網(wǎng)絡(luò)的損失最小化有利于學習通道數(shù)。剪枝網(wǎng)絡(luò)的特征圖由基于概率分布采樣的 K 個特征圖片段組成,通過反向傳播將損失傳輸?shù)骄W(wǎng)絡(luò)權(quán)重和參數(shù)化分布。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文鏈接:https://arxiv.org/pdf/1905.09717v5.pdf

剪枝網(wǎng)絡(luò)的寬度和深度是基于每個分布規(guī)模的最大概率得來的,然后通過從原始網(wǎng)絡(luò)進行知識遷移來獲取這些參數(shù)。論文作者在 CIFAR-10、CIFAR-100、ImageNet 數(shù)據(jù)集上評估了該模型。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

該剪枝方法包含三個步驟:

  • 用標準分類訓練步驟訓練未經(jīng)剪枝的大規(guī)模網(wǎng)絡(luò);
  • 通過 Transformable Architecture Search (TAS) 搜索小規(guī)模網(wǎng)絡(luò)的深度和寬度,旨在搜尋最佳規(guī)模的網(wǎng)絡(luò)。
  • 用簡單的知識蒸餾(KD)方法,將未經(jīng)剪枝網(wǎng)絡(luò)的信息遷移到搜索得到的小規(guī)模網(wǎng)絡(luò)中去。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

下表對比了不同 ResNet 模型經(jīng)過不同剪枝算法后,所得到的模型在 ImageNet 數(shù)據(jù)集上的各自表現(xiàn):

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文 5:Self-Adaptive Network Pruning (ICONIP 2019)

這篇論文提出通過自適應(yīng)網(wǎng)絡(luò)剪枝方法(SANP)降低 CNN 的計算成本,通過對每個卷積層引入 Saliency-and-Pruning Module (SPM) 來實現(xiàn),SPM 模塊可以學習預測顯著性分數(shù),并對每個通道剪枝。SANP 會根據(jù)每個層和每個樣本決定對應(yīng)的剪枝策略。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文鏈接:https://arxiv.org/pdf/1910.08906.pdf

根據(jù)下面的架構(gòu)圖,SPM 模塊嵌入在卷積網(wǎng)絡(luò)的每個層中。該模塊可以基于輸入特征去預測通道的顯著性分數(shù),然后為每個通道生成對應(yīng)的剪枝決策。

對于剪枝決策為 0 的通道,則跳過卷積運算,然后利用分類目標和成本目標聯(lián)合訓練骨干網(wǎng)絡(luò)和 SPM 模塊。計算成本取決于每一層的剪枝決策。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

下表展示了該方法的一些結(jié)果:

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文 6:Structured Pruning of Large Language Models (2019) 

這篇論文提出的剪枝方法基于低秩分解和增強拉格朗日 L_0 范數(shù)正則化(augmented Lagrangian 10 norm regularization)的原理。L_0 正則化放寬了結(jié)構(gòu)化剪枝帶來的約束,而低秩分解則保留了矩陣的密集結(jié)構(gòu)。

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

論文鏈接:https://arxiv.org/pdf/1910.04732.pdf

正則化讓網(wǎng)絡(luò)去選擇待移除的權(quán)重。權(quán)重矩陣被分解為兩個較小的矩陣,然后設(shè)置這兩個矩陣之間的對角線掩碼(diagonal mask)。在訓練過程中,使用 L_0 正則化對該掩碼執(zhí)行剪枝。增強拉格朗日方法用于控制模型的最終稀疏程度, 論文作者將該方法叫做 FLOP (Factorized L0 Pruning)。

論文使用的字符級語言模型用在 enwik8 數(shù)據(jù)集的實驗中,該數(shù)據(jù)集包含選取自維基百科的 100M 數(shù)據(jù)。作者在 SRU 和 Transformer-XL 模型上評估了 FLOP 方法。下表展示了部分結(jié)果:

2019年的最后一个月,这里有6种你必须要知道的最新剪枝技术

以上就是本次為大家介紹的幾種剪枝技術(shù),本文介紹的論文也有代碼實現(xiàn),大家可以親自測試。 

 

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2019-08-06 14:54:22

Hadoop數(shù)據(jù)集海量數(shù)據(jù)

2018-11-28 10:00:42

React組件前端

2012-04-09 13:16:20

DIVCSS

2024-04-09 16:24:18

Promise開發(fā)

2023-05-12 14:49:47

CSS框架前端

2021-06-07 14:04:13

并發(fā)編程Future

2022-09-27 14:36:57

JavaScrip數(shù)組開發(fā)

2020-06-12 07:36:33

Redis

2017-08-31 15:37:17

人工智能機器自動化

2019-02-18 13:36:03

Redis數(shù)據(jù)庫面試

2019-04-09 08:15:27

SEO優(yōu)化工具網(wǎng)站

2024-08-27 11:55:38

2011-07-13 11:03:17

ASP

2017-12-01 17:35:02

2024-08-06 14:54:16

2024-04-01 11:52:46

2016-08-23 00:39:25

2019-09-18 09:06:00

2020-11-02 15:49:35

機器學習技術(shù)云計算
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 日本一本视频 | 国产一区二区成人 | 中文在线一区二区 | 国产精品乱码一区二区三区 | 亚洲免费婷婷 | 一区二区不卡视频 | 51ⅴ精品国产91久久久久久 | 99精彩视频 | 欧美一级免费看 | 视频二区国产 | 日韩图区 | 婷婷综合激情 | 亚洲一区二区视频在线播放 | 欧美一区二区三区在线 | 伦理二区 | 久久乐国产精品 | 国产免费麻豆视频 | 国产精品久久久久久久免费大片 | 99久久精品免费看国产免费软件 | 久久久亚洲一区 | 精品少妇一区二区三区日产乱码 | 精品一区二区三区在线观看国产 | 日美女逼逼 | 一区二区中文字幕 | 天天干天天爱天天 | 中文字幕亚洲视频 | 91精品国产91久久久久久吃药 | 99热精品在线观看 | 五月激情六月婷婷 | 亚洲人成一区二区三区性色 | 欧美成人aaa级毛片在线视频 | 日日日操| 午夜影院黄 | 国产一区在线免费观看视频 | 久久国产婷婷国产香蕉 | 黄色一级网 | 色婷婷精品国产一区二区三区 | 成人自拍视频网站 | 国产一区二区三区高清 | 日韩欧美一区二区三区 | 99免费在线视频 |