成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

快3倍!Meta 違背經(jīng)典模型結(jié)構(gòu),一次預測多個token,路徑可行,大模型大幅提速指日可待!

譯文 精選
人工智能
根據(jù)研究人員的說法,多標記預測還使模型在跨廣泛批量大小的推理時間上快了多達三倍。“使用多標記預測進行預訓練,額外的頭部(Head)比簡單的下一個標記預測模型的微調(diào)更準確,我們讓模型可以釋放自我推測解碼的全部潛力,”研究人員寫道。

編譯 | 伊風

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

眾所周知,LLMs的工作原理是對下一個token進行預測。

讀者朋友們有沒有曾這樣想過:如果LLM一次預測n個token呢?那是不是就快n倍?Meta也是這樣想的!并且付諸實踐。

在最近的一項研究中,Meta、以及巴黎高科橋路學院和巴黎-薩克雷大學的研究人員建議,通過讓人工智能大型語言模型(LLMs)同時預測多個token,來提高大模型的準確性和速度。

這個大膽的設想,跳出了自回歸語言模型的經(jīng)典結(jié)構(gòu)——一次僅僅預測一個token。

在某些領(lǐng)域,這一方法呈現(xiàn)了顯著的優(yōu)勢,速度提高了三倍,生成任務的性能也更好!

雖然多標記預測并不一定成為每種模型和語言任務的通用解決方案,且該方法還存在很大的改進空間。但Meta的研究驗證了該思路的可行性,這項技術(shù)可能讓某些LLM應用大幅進化,例如時下熱議的AI編程。         

1.只預測下一個token的局限性

訓練LLMs的經(jīng)典方法是所謂的“下一個token預測”,這是一種自監(jiān)督學習技術(shù),模型被給予一系列token,并預測下一個。   

然后大模型會將預測的標記添加到輸入中,并重復這個過程,一次一個token。通過在大量文本語料庫上一遍又一遍地這樣做,模型學習到一般模式,使其能夠輸出連貫的文本段落。

研究人員已經(jīng)研究并記錄了下一個標記預測在獲取語言、世界知識和推理能力方面的局限性:例如,僅僅關(guān)注一個標記,模型變得對局部模式過于敏感,忽略了需要對更長視野進行推理的預測。在下一個標記預測上訓練的模型還需要大量的數(shù)據(jù)才能達到人類用更少文本就能獲得的流暢度。

Meta的新研究正基于這樣的假設:“訓練語言模型一次預測多個token,可以提高樣本效率。”

2.新技術(shù):一次預測多個token

多標記預測指示LLM從訓練語料庫中的每個位置同時預測多個未來的token。研究人員提出了一個簡單的多標記預測架構(gòu),不需要額外的訓練時間或內(nèi)存開銷。

多標記預測語言模型基于大多數(shù)LLMs使用的Transformer架構(gòu),盡管有一些修改。模型使用Transformer的主要結(jié)構(gòu),雖然不再輸出單個token,但每個token都有獨立的輸出頭,每個要預測的標記一個。   

圖片圖片

在推理過程中,模型使用每個預測頭去做基本的下一個token預測方案,并使用額外的輸出頭來加速解碼過程。該模型綜合利用了該領(lǐng)域中的幾項相關(guān)的成果。

“在不增加額外成本且保持簡單的同時,多標記預測是對訓練更強大、更快的Transformer模型的有效調(diào)整,”研究人員寫道。

3.多標記預測技術(shù)的改進效果

研究人員在300百萬到130億參數(shù)的各種任務上測試了新的多標記預測方案。

他們的發(fā)現(xiàn)包括幾個有趣的觀測結(jié)果。例如,在較小的模型上,多標記預測會導致更差的結(jié)果,但隨著模型大小的增加,它變得越來越有用。例如,在訓練4個標記預測時,6.7億和130億參數(shù)的模型在MBPP編碼基準測試上比基線單標記預測提高了幾個百分點。“在相同的計算預算下,使用多標記預測,可以在固定數(shù)據(jù)集上從大型語言模型中擠出更多的性能,”研究人員寫道。   

根據(jù)研究人員的說法,多標記預測還使模型在跨廣泛批量大小的推理時間上快了多達三倍。“使用多標記預測進行預訓練,額外的頭部(Head)比簡單的下一個標記預測模型的微調(diào)更準確,我們讓模型可以釋放自我推測解碼的全部潛力,”研究人員寫道。

該研究還表明,多標記預測促進了學習長期模式,特別是在模型被訓練在“字節(jié)級標記化”(byte-level tokenization)上的實驗中,其中每個字節(jié)都被視為一個單獨的標記。在這些實驗中,多字節(jié)預測以很大的優(yōu)勢超過了基線單字節(jié)預測模型。

這對于沒有預定義詞匯表并且模型必須學習使用非常小的信息塊的應用尤其重要。

多標記預測仍有改進空間。例如,要預測的標記的最優(yōu)數(shù)量取決于任務類型和模型大小。科學家們正在考慮多個未來的研究方向,包括自動選擇要預測的標記的最優(yōu)數(shù)量的技術(shù),以及研究詞匯表大小和多標記預測之間的動態(tài)。

這項研究及其未來的迭代可能對企業(yè)應用有用,因為它們有潛力為生成任務(如代碼完成)提供更快的推理和更高的準確性,而幾乎沒有或沒有額外的成本。由于它還保留了大部分LLM架構(gòu),因此可以與Transformer塊的其他優(yōu)化技術(shù)兼容,具備很強的迭代潛力。

參考鏈接:https://venturebeat.com/ai/metas-new-multi-token-prediction-makes-ai-models-up-to-3x-faster/

想了解更多AIGC的內(nèi)容,請訪問:

51CTO AI.x社區(qū)

http://m.ekrvqnd.cn/aigc/

責任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2018-12-28 13:56:35

技術(shù)量子人工智能

2024-02-27 18:59:55

ReactRSDWeb

2009-04-26 15:02:17

安全web

2015-09-25 14:44:42

微信支付

2024-03-25 00:20:00

AI短視頻

2014-07-25 11:57:28

互聯(lián)網(wǎng)廣告價值

2020-10-22 15:01:22

大數(shù)據(jù)互聯(lián)網(wǎng)醫(yī)療

2021-09-22 10:13:33

云計算安全技術(shù)

2011-11-18 10:12:04

云計算虛擬化云桌面

2020-09-29 21:26:49

自動駕駛無人駕駛人工智能

2010-02-24 13:45:45

FlexRIA

2012-04-20 13:02:09

iOS

2020-06-08 19:21:00

GitHub工具 網(wǎng)頁

2021-02-05 07:11:23

科技VRVR+5G

2019-03-25 22:04:19

編程PythonJava

2011-07-12 10:34:48

WatsonARM架構(gòu)RISC架構(gòu)

2015-03-05 14:14:46

3D指紋掃描、密碼

2009-02-19 09:49:21

AMD分拆制造業(yè)務

2020-11-13 10:10:48

5G網(wǎng)絡技術(shù)

2015-11-27 11:03:05

Windows10Windows 7用戶量
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 亚洲国产精品一区 | 你懂的国产 | 日本免费在线 | 欧美黑人国产人伦爽爽爽 | 成人在线黄色 | 91精品国产综合久久婷婷香蕉 | 超碰在线免费公开 | 精品一区电影 | 找个黄色片 | 中文在线a在线 | 精品啪啪| 国产精品国产成人国产三级 | 中文福利视频 | 激情五月婷婷丁香 | 美女久久视频 | 日日摸夜夜添夜夜添精品视频 | 五月综合色啪 | 欧美中文一区 | 欧美一级视频免费看 | 久久大陆 | 欧美日韩高清在线观看 | 午夜丁香视频在线观看 | 亚洲视频中文字幕 | 久久高清国产视频 | 亚洲福利在线观看 | 91视视频在线观看入口直接观看 | 国产精品久久久久久久 | 成人免费观看网站 | 欧美日韩不卡在线 | 日韩手机在线视频 | 欧美日韩国产一区二区三区 | 中文字幕在线观看一区 | 精品国产一区二区三区久久久蜜月 | 91就要激情 | 欧美在线网站 | 国产精品99999 | 日韩av中文 | 视频1区 | 久久综合九色综合欧美狠狠 | 亚洲一一在线 | 久草福利 |