成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

騰訊混元、北大發現Scaling law「浪涌現象」,解決學習率調參難題

人工智能 新聞
騰訊混元聯合北京大學基于現有科研基礎和實際業務需求,在進行了大量理論分析和實驗驗證后發布了關于 Batch size 和 Learning rate 放縮關系的調參指南

過去十年間,基于隨機梯度下降(SGD)的深度學習模型在許多領域都取得了極大的成功。與此同時各式各樣的 SGD 替代品也如雨后春筍般涌現。在這些眾多替代品中,Adam 及其變種最受追捧。無論是 SGD,還是 Adam,亦或是其他優化器,最核心的超參數非 Learning rate 莫屬。因此如何調整好 Leanring rate 是煉丹師們從一開始就必學的技能。

從直覺上講,影響 Learning rate 取值的重要因素是 Batch size。不知你在學習煉丹術時,是否遇到或者思考過入如下問題:

  • 我的 Batch size 增加一倍,Learning rate 該怎么調整?
  • 網上有說 Batch size 和 Learning rate 是線性放縮,也有說是平方根放縮,到底該按照哪個調整?
  • 為什么我按照網上說的經驗關系調整之后效果反而變差了?

針對上述問題,騰訊混元聯合北京大學基于現有科研基礎和實際業務需求,在進行了大量理論分析和實驗驗證后發布了關于 Batch size 和 Learning rate 放縮關系的調參指南:

圖片

  • 論文:Surge Phenomenon in Optimal Learning Rate and Batch Size Scaling
  • 論文地址:https://arxiv.org/pdf/2405.14578

1. 當使用 SGD 風格的優化器時,應當采用 OpenAI 2018 年給出的結論(https://arxiv.org/pdf/1812.06162):

圖片

2. 但是當使用 Adam 風格的優化器時,需要按照如下放縮規律:

圖片

其中圖片和 B 分別代表 Learning rate 和 Batch size,而圖片與 OpenAI 2020 年 Scaling law 論文(https://arxiv.org/pdf/2001.08361)中的圖片對應。從上面結論不難發現,當圖片時,社區中廣為流傳的線性放縮和平方根放縮在一定范圍內都是正確的,并且分別對應使用 SGD 風格和 Adam 風格優化器的情況。

一、居然要降低學習率?

如果仔細觀察 Adam 風格優化器放縮規律的表達式子會發現,當 Batch size 超過圖片后,隨著 Batch size 增加最優的 Learning rate 反而是下降的!這樣的結論似乎有點反常,但是仔細思考之后又覺得是合理的。首先我們回顧一下 Adam 的更新形式,梯度的一階動量除以二階動量的平方根:

圖片

(更詳細的討論參考原文中的附錄 A)。與 SGD 直接采用 G 進行參數更新相比,圖片將更快的進入飽和區間,例如,假設 G 的均值是正實數,隨著 Batch size 增加圖片估計為正數時,再增加估計的準確度對圖片的結果也毫無影響了。因此當 Batch size 超過圖片時,增加的信息不足以抵消圖片帶來的噪聲影響,從而導致此次的更新不再那么確信,以至于需要降低學習率。

二、觀察到的下降區間

為了檢驗理論的正確性,需要從實驗中觀察到最優學習率的 “下降區間”。既然從上一節的分析中發現,使用 Adam 優化器時 Batch size 超過圖片就會導致最優學習率下降,那么只要確定出圖片取值,然后在通過網格搜索打點觀察就可以了。雖然從形式上圖片計算很困難,但是幸運的是基于 OpenAI 關算于訓練時間和樣本效率的定量結論中我們可以估算出圖片的取值(更詳細的討論參考原文中的附錄 G)。

圖片

上面展示了 CNN 在 FashionMNIST 上的學習率 “下降區間”。左圖為通過 OpenAI 定量公式估算的圖片(左圖直線斜率的負數,右圖紅色豎直虛線),右圖中黃色五角星代表不同 Batch size 下的最優 Learning rate 取值,青色實線為我們的理論預估曲線。

圖片

圖片

以及 Resnet18 在 TinyImagenet,和 DistilGPT2 在 Eli5Category 上也觀察到了類似現象。

三、浪涌現象

前面我們從理論和實驗上都發現了,在使用 Adam 風格優化器時最優學習率曲線就像一朵 “浪花” 一樣隨著 Batch size 增加會先升高后下降。同時結合 OpenAI scaling law 的結論,隨著訓練進行圖片會逐漸變大。我們理論預測并實驗證明了隨著訓練進行 “浪花” 逐漸向著大 Batch size 方向涌動:

圖片

四、理論發現

前面討論過 Adam 風格的優化器在進行參數更新時采用類似圖片的形式。雖然此形式看起來很簡單,但是由于推導過程涉及到對更新量均值和方差的考量,所以我們在處理的時候做了一個假設和一個近似:

1. 假設每個樣本的參數 i 的梯度服從均值為圖片,方差為圖片的高斯分布

2. 通過 sigmoid-style 函數對高斯誤差函數進行數值近似

圖片

圖片時,完整的 Scaling law 形式近似為:

圖片

其中

,H 為海森矩陣。

圖片時:

圖片

表明,Batch size 無限大時最優學習率趨于一個飽和值。

五、應用

我們在騰訊 Angel 大模型訓練框架中集成了上述理論成果,并在騰訊混元大模型訓練任務中對理論進行進一步驗證,未來將服務于各種大模型訓練場景。

感謝閱讀,更多詳細內容,請參考原文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2019-12-16 10:27:10

機器學習人工智能AI

2017-05-16 05:05:34

2024-04-17 13:22:55

人工智能

2024-05-22 18:10:38

2022-11-09 10:46:18

AQS加鎖機制

2025-01-17 09:20:00

2019-05-09 19:00:40

量子加密加密技術安全

2024-03-11 13:07:25

2023-09-07 11:48:36

騰訊混元大模型

2023-11-06 14:55:33

2023-09-06 18:25:32

2024-06-06 14:27:21

2024-12-16 07:15:00

2024-11-14 18:40:57

2023-10-26 15:38:03

混元大模型騰訊

2025-03-11 09:42:00

2024-09-14 14:00:00

AI模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩精品视频中文字幕 | 欧美另类视频在线 | 欧美精品一区二区三区四区 在线 | 欧美日韩国产精品一区 | 成人精品久久久 | 国产a区 | 国产馆| 中文字幕成人 | 99热激情| 在线中文视频 | 欧美精品久久久久久久久久 | 精品国产99 | 成人精品一区二区 | 一级免费视频 | 亚洲精品久久久一区二区三区 | 亚洲国产精品一区二区第一页 | 国产精品久久久久久亚洲调教 | 欧美日韩国产三级 | 亚洲在线一区 | 国产清纯白嫩初高生在线播放视频 | 国产在线观看一区二区 | 亚洲精品小视频在线观看 | 日本超碰 | 欧美精品福利 | 久久精品91久久久久久再现 | 免费观看毛片 | 日本黄色免费大片 | 国产91网址 | 九九热国产视频 | 毛片入口| 欧州一区二区三区 | av 一区二区三区 | 欧美一区免费 | 国产精品九九九 | 亚洲欧美激情国产综合久久久 | 国产精品视频免费看 | 国产精品久久久久久久久久久久久 | 91色综合 | 久久久久久久久久久久久久国产 | 国产一区二区欧美 | 中文字幕亚洲精品 |