成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一文帶你看懂開源大模型基石LLaMA核心技術點,DeepSeek/千問等LLM的模型結構基礎

人工智能
LLaMA的主體結構仍然基于Transformer,本文主要介紹LLaMA各個版本相比于Transformer的改進部分,包括Pre-Normalization、RMSNorm、SwiGLU激活函數、Rotray Embedding等部分。

LLaMA是目前很多SOTA開源大模型的基礎,包括DeepSeek、千問等在內的很多大模型的模型機構大體上都沿用了LLaMA。因此,LLaMA在模型結構的設計上可以說是目前大模型的一種最佳實踐。這篇文章就給大家匯總一下LLaMA的核心模型結構。

LLaMA的主體結構仍然基于Transformer,本文主要介紹LLaMA各個版本相比于Transformer的改進部分,包括Pre-Normalization、RMSNorm、SwiGLU激活函數、Rotray Embedding等部分。

1.Pre-Normalization

基礎的Transformer每一層的計算邏輯是attention->add->norm->ffn->add->norm。其中norm為LayerNormalization。這種在attention和add之后的norm稱為Post-Normalization。而LLaMA中采用了Pre-Normalization,主要源自于ON LAYER NORMALIZATION IN THE TRANSFORMER ARCHITECTURE(ICLR 2020)這篇文章。其核心是將LayerNormalization放在每層Transformer的輸入位置。兩者的差異如下圖和表所示。

圖片圖片

圖片圖片

文中通過分析實驗和分析發現,Post-Normalization方法在訓練開始階段模型的輸出層的梯度范數比較大,模型層數越靠后梯度越大,這給訓練的初始階段帶來了不穩定性。而使用Pre-Normalization,各層的梯度范數基本想同,因次使用Pre-Normalization可以提升訓練的穩定性。此外,通過warm-up等策略,讓初始的學習率小一些,可以緩解Post-Normalization的這種初始階段梯度范數較大的問題。

圖片圖片

2.RMSNorm

基礎的Transformer在norm部分采用的是LayerNormalization,在LLaMA中則使用了RMSNorm,是一種針對LayerNormalization的改進,出自論文Root Mean Square Layer Normalization(NeuIPS 2019)中。LayerNorm每一層需要計算輸入的每條樣本向量各個元素的均值和方差,然后對輸入進行歸一化處理。這種方法雖然可以提升訓練穩定性,但是大幅增加了模型中的計算開銷。如下圖,相同步數下使用LayerNorm可以降低1.6的loss,而相同時間下只能降低1.1的loss,說明LayerNorm的計算開銷較大。

圖片圖片

為了解決這個問題,文中提出的RMSNorm將LayerNorm進行了簡化,原來的LayerNorm是計算均值和方差,而RMSNorm改為計算元素的均方根,用均方根進行歸一化。這樣做雖然犧牲了LayerNorm對輸入數據的re-centering能力,但是最終效果和LayerNorm差不多,說明LayerNorm的有效并不來源于re-centering。

圖片圖片

從實驗效果看,使用RMSNorm模型收斂更快,也取得了更好的效果。

圖片圖片

3.SwiGLU

基礎的Transformer結構中,激活函數使用的是ReLU。而LLaMA中將所有ReLU更換為SwiGLU激活函數,以此來提升模型的表現。SwiGLU發表于文章GLU Variants Improve Transformer(2020)中,SwiGLU是Swish激活函數和GLU激活函數的結合,Swish、GLU、SwiGLU激活函數的形式分別如下:

圖片圖片

圖片圖片

圖片圖片

這里面的核心是利用了門控的思路,原始的輸入過一個sigmoid,得到一個0~1的和輸入向量維度相同的gate,以此對原始輸入各個維度進行縮放。論文中在基于Transformer Encoder-Decoder的語言模型中,分別進行了預訓練、finetune等不同激活函數的效果測試,都驗證了SwiGLU相比ReLU等其他激活函數可以取得更好的效果。

圖片圖片

4.Rotary Position Embedding

基礎的Transformer中采用絕對位置編碼,即每個位置映射成一個embedding,或者用三角函數定義位置編碼。但是絕對位置編碼的核心問題在于,無法支持超出訓練長度的建模,因為這些embedding在訓練過程中沒見過。在文本生成中,需要靈活支持很長的文本生成場景,因此絕對位置編碼的弊端就顯露出來。

旋轉位置編碼發表于論文ROFORMER: ENHANCED TRANSFORMER WITH ROTARY POSITION EMBEDDING(2023)中,是一種相對位置編碼方法,能夠靈活支持不同長度的文本輸入和輸出。其核心出發點是將位置編碼信息放到attention的計算中,通過query和key的內積引入相對編碼,目標是尋找一個函數f,其內積能夠實現只和query和key的向量輸入,以及兩個元素的相對位置相關:

圖片圖片

對應的函數在2維的情況下可以表示為如下形式,滿足上述需求:

圖片圖片

這里利用了復數的計算實現相對位置編碼,整體的計算流程未,對于 token 序列中的每個詞嵌入向量,首先計算其對應的 query 和 key 向量,然后對每個 token 位置都計算對應的旋轉位置編碼,接著對每個 token 位置的 query 和 key 向量的元素按照 兩兩一組應用旋轉變換,最后再計算 query 和 key 之間的內積得到 self-attention 的計算結果。下圖是論文中的示意圖計算流程示意圖。

圖片圖片

5.Grouped-Query Attention

為了提升infer的運算效率,LLaMA將基礎Transformer中的self-attention改成了GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints(2023)中提出的grouped-query attention。在多頭self-attention中,每和head內都會進行一次QKV的映射,再進行attention計算。而Grouped-query會將多個head分成多個組,每個組內的query使用相同的K和V,而不再每個head都進行一次映射,以此節省計算開銷。

圖片圖片

責任編輯:武曉燕 來源: 圓圓的算法筆記
相關推薦

2025-04-07 08:40:00

開源Llama 4大模型

2025-02-11 15:56:18

2023-07-07 11:36:29

人工智能基礎模型

2024-05-29 12:13:50

2023-04-10 11:35:31

評估模型業務流程

2017-12-21 14:48:43

數據安全數據泄漏檢測技術

2016-12-23 14:08:30

物聯網操作系統開源

2024-07-23 10:34:57

2023-09-12 07:02:19

騰訊混元大模型

2024-05-07 08:49:36

Hadoop數據存儲-分布式存儲

2023-05-16 12:11:22

2019-07-01 09:22:15

Linux操作系統硬件

2025-02-13 11:00:30

2025-03-31 08:15:00

LLM大型語言模型人工智能

2021-09-08 17:42:45

JVM內存模型

2024-09-04 16:19:06

語言模型統計語言模型

2023-12-08 08:00:00

人工智能MusicGen音樂模型

2025-05-30 05:00:00

AI模型數據訓練

2025-05-21 09:04:38

2025-05-20 13:52:12

GPU集群微軟
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 婷婷精品 | 国产美女在线精品免费 | 97高清国语自产拍 | 中文字幕国产 | 欧美成年网站 | 日韩在线一区二区 | 青娱乐一区二区 | 国产精品久久影院 | 久操国产 | 网站黄色av | 中文字幕一区二区三区不卡在线 | 久久久久久国产精品免费免费狐狸 | 粉嫩一区二区三区四区公司1 | 国产一二三区免费视频 | 午夜欧美a级理论片915影院 | 成人午夜精品 | 在线免费观看黄色 | av电影一区二区 | 性欧美hd | 99热播精品 | 羞羞视频免费在线观看 | 成人做爰999 | 成人免费视频网站在线看 | 日韩精品福利 | 日韩av成人 | 精品一区二区在线观看 | 欧美偷偷操| 91成人午夜性a一级毛片 | 国产精品久久久久永久免费观看 | 亚洲欧洲精品一区 | 久热爱| 亚洲精品一区二区三区蜜桃久 | 日本天堂视频在线观看 | 久久999 | 日本成人片在线观看 | 亚洲视频中文字幕 | 97超在线视频| 亚洲国产精品人人爽夜夜爽 | 国户精品久久久久久久久久久不卡 | 一区二区三区在线播放 | 成人1区2区 |