成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

微軟6頁論文爆火:三進制LLM,真香!

人工智能 新聞
若論文成立,那么我們就能在24GB消費級GPU上跑120B的大模型了。

這就是由微軟和中國中科院大學(xué)在最新一項研究中所提出的結(jié)論——

所有的LLM,都將是1.58 bit的。

圖片

具體而言,這項研究提出的方法叫做BitNet b1.58,可以說是從大語言模型“根兒”上的參數(shù)下手。

將傳統(tǒng)以16位浮點數(shù)(如FP16或BF16)形式的存儲,統(tǒng)統(tǒng)變成了三進制,也就是 {-1, 0, 1}

圖片

值得注意的是,這里的“1.58 bit”并不是指每個參數(shù)占用1.58字節(jié)的存儲空間,而是指每個參數(shù)可以用1.58位的信息來表示。

在如此轉(zhuǎn)換之后,矩陣中的計算就只會涉及到整數(shù)的加法,因此會讓大模型在保持一定精度的同時,顯著減少所需的存儲空間和計算資源。

例如BitNet b1.58在3B模型大小時與Llama做比較,速度提高了2.71倍的同時,GPU內(nèi)存使用幾乎僅是原先的四分之一。

而且當(dāng)模型的規(guī)模越大時(例如70B),速度上的提升和內(nèi)存上的節(jié)省就會更加顯著!

這種顛覆傳統(tǒng)的思路著實是讓網(wǎng)友們眼前一亮,論文在X上也是受到了高度的關(guān)注:

圖片

網(wǎng)友們驚嘆“改變游戲規(guī)則”的同時,還玩起了谷歌attention論文的老梗:

1 bit is all YOU need.

圖片

那么BitNet b1.58具體又是如何實現(xiàn)的?我們繼續(xù)往下看。

把參數(shù)都變成三進制

這項研究實則是原班人馬在此前發(fā)表的一篇論文基礎(chǔ)之上做的優(yōu)化,即在原始BitNet的基礎(chǔ)上增加了一個額外的0值。

圖片

整體來看,BitNet b1.58依舊是基于BitNet架構(gòu)(一種Transformer),用BitLinear替換了nn.Linear。

至于細節(jié)上的優(yōu)化,首先就是我們剛才提到的“加個0”,即權(quán)重量化(weight quantization)

BitNet b1.58模型的權(quán)重被量化為三元值{-1, 0, 1},這相當(dāng)于在二進制系統(tǒng)中使用了1.58 bit來表示每個權(quán)重。這種量化方法減少了模型的內(nèi)存占用,并簡化了計算過程。

圖片

其次,在量化函數(shù)設(shè)計方面,為了將權(quán)重限制在-1、0或+1之間,研究者們采用了一種稱為absmean的量化函數(shù)。

圖片

這個函數(shù)先會根據(jù)權(quán)重矩陣的平均絕對值進行縮放,然后將每個值四舍五入到最接近的整數(shù)(-1, 0, +1)。

接下來就到了激活量化(activation quantization)這一步。

激活值的量化與BitNet中的實現(xiàn)相同,但在非線性函數(shù)之前不將激活值縮放到[0, Qb]的范圍內(nèi)。相反,激活值被縮放到[?Qb, Qb]的范圍,以此來消除零點量化。

值得一提的是,研究團隊為了BitNet b1.58與開源社區(qū)兼容,采用了LLaMA模型的組件,如RMSNorm、SwiGLU等,使得它可以輕松集成到主流開源軟件中。

最后,在實驗的性能比較上,團隊將BitNet b1.58與FP16 LLaMA LLM在不同大小的模型上進行了比較。

圖片

結(jié)果顯示,BitNet b1.58在3B模型大小時開始與全精度LLaMA LLM在困惑度上匹配,同時在延遲、內(nèi)存使用和吞吐量方面有顯著提升。

而且當(dāng)模型規(guī)模越大時,這種性能上提升就會越發(fā)顯著。

網(wǎng)友:能在消費級GPU跑120B大模型了

正如上文所言,這篇研究獨特的方法在網(wǎng)上引發(fā)了不小的熱議。

DeepLearning.scala作者楊博表示:

BitNet b1.58相比原版BitNet,最大的特點就是允許0參數(shù)。我覺得稍微修改一下量化函數(shù),也許可以控制0參數(shù)的比例。當(dāng)0參數(shù)的比例很大時,可以用稀疏格式存儲權(quán)重,使得平均每個參數(shù)的顯存占用甚至低于1比特。這就相當(dāng)于權(quán)重級別的MoE了。我覺得比一般的MoE更優(yōu)雅。

與此同時,他也提出了關(guān)于BitNet的缺點:

BitNet最大的缺點在于雖然能減少推理時的顯存開銷,但優(yōu)化器狀態(tài)和梯度仍然要用浮點數(shù),訓(xùn)練仍然很費顯存。我覺得如果能把BitNet和訓(xùn)練時節(jié)省顯存的技術(shù)結(jié)合起來,那么相比傳統(tǒng)半精度網(wǎng)絡(luò),同等算力和顯存下支持更多參數(shù),優(yōu)勢就很大了。

目前能節(jié)省優(yōu)化器狀態(tài)的顯存開銷的辦法是offloading。能節(jié)省梯度的顯存占用的辦法可能是ReLoRA。但是ReLoRA的論文實驗只用了十億參數(shù)的模型,并沒有證據(jù)表明能不能推廣到百億、千億參數(shù)的模型。

圖片

△圖源:知乎,經(jīng)授權(quán)引用

不過也有網(wǎng)友分析認為:

若論文成立,那么我們就能在24GB消費級GPU上跑120B的大模型了。

圖片
圖片

那么你覺得這種新方法如何呢?

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-05-29 09:14:17

2023-03-24 16:02:59

GPT-4測評

2023-04-03 09:56:22

模型系統(tǒng)

2025-03-25 09:04:12

2024-05-08 09:37:36

AI論文

2022-09-13 14:54:08

模型AI

2025-02-19 10:46:16

2024-03-01 12:17:00

AI數(shù)據(jù)微軟

2022-08-02 20:21:00

SaaS驅(qū)動PLG

2025-02-12 10:06:25

2023-07-19 17:27:38

研究方案

2022-08-24 13:25:20

微軟Python小白神器

2025-02-20 11:29:21

2023-09-27 08:18:03

2023-04-11 13:55:20

AI游戲

2022-07-11 09:58:45

LPWAN蜂窩物聯(lián)網(wǎng)

2025-01-20 13:10:22

2021-07-26 16:17:46

代碼開發(fā)CPU

2023-06-19 10:09:01

數(shù)學(xué)AI
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 久久黄视频 | 涩涩视频在线观看 | 成人欧美一区二区三区黑人孕妇 | 国产精品自拍av | 久草成人网| 中文字幕精品一区二区三区在线 | 国内精品久久久久久久 | 手机在线一区二区三区 | 久久精品免费 | 成人高清在线视频 | 亚洲精品一区二区在线观看 | 亚州成人| 成人精品鲁一区一区二区 | 中文字幕在线看第二 | 一区二区三区四区视频 | 欧美一区二区三区国产精品 | 精品久久久久久国产 | 国产四区| av资源网站 | www.99re| 国产精品久久久久久久久久久免费看 | 国产91视频播放 | 日韩国产精品一区二区三区 | 91大神在线资源观看无广告 | 久久久久亚洲视频 | 伊人狠狠 | 中文字幕精品一区二区三区精品 | 欧美成人手机在线 | 亚洲一区 中文字幕 | 亚洲精品久久久一区二区三区 | 中文字幕三区 | 国产精品区二区三区日本 | 日韩一区二区在线视频 | 国产精品99视频 | 欧美日韩中文字幕 | 欧洲色| 久久久91精品国产一区二区三区 | 久久久久九九九九 | 九色国产 | 国产精品99视频 | 国产精品一区二区三区四区五区 |