成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

90分鐘生成10萬Token,新框架實現3倍無損加速超長文本生成,支持DeepSeek-R1和QwQ!

人工智能 新聞
生成10萬Token的文本,傳統自回歸模型需要近5個小時,現在僅需90分鐘!

大語言模型長序列文本生成效率新突破——

生成10萬Token的文本,傳統自回歸模型需要近5個小時,現在僅需90分鐘!

圖片

最新研究提出了一個名為TOKENSWIFT框架,從模型加載、KV緩存管理到Token生成策略進行了全方位的優化。

實驗結果證明,該方法不僅能大幅提升生成效率,更在保證生成質量和多樣性上實現了無損加速

而且支持R1-Distill,團隊發布經過微調的DeepSeek-R1-Distill-Qwen-32B模型,同樣具備3倍加速效果。

圖片

來看demo展示:

本研究由來自北京通用人工智能研究院的團隊完成,以下是更多細節。

圖片

TOKENSWIFT框架長啥樣?

隨著LLMs長上下文窗口能力的不斷提升,復雜任務對超長文本生成的需求越來越高。傳統的自回歸(AR)生成方式雖然在短文本上表現良好,但在長文本生成中存在明顯瓶頸,主要體現在以下三個方面:

  • 模型頻繁加載問題

由于自回歸生成每生成一個Token都需要從GPU存儲中重新加載模型權重,導致I/O操作頻繁、延遲高。在生成10萬Token時,模型需要重復加載上萬次,嚴重拖慢整體生成速度。

  • KV緩存的動態管理

生成超長文本過程中,模型內部的鍵值對(KV Cache)不斷增長,若直接使用全量KV緩存,不僅超出內存預算,還會大幅增加計算時間。如何在保證關鍵信息不丟失的前提下,實現KV緩存的高效更新成為一大難題。

  • 重復性生成

長序列生成易出現重復和冗余問題,影響文本的多樣性和質量。雖然重復問題并非論文的主要聚焦點,但在超長文本生成中依然需要有效抑制。

為解決上述難題,論文提出了TOKENSWIFT——一個全新的框架,旨在實現無損加速超長序列生成,其主要創新點體現在以下幾個方面:

1)多Token并行生成與Token復用

論文借鑒了Medusa等方法,通過引入額外的線性層,使模型在一次前向傳播中能夠同時生成多個草稿Token。

更重要的是,基于生成文本中的n-gram頻率信息,系統會自動檢索并復用高頻短語,從而進一步減少模型重新加載的次數,提升整體效率。

2)動態KV緩存更新策略

在KV緩存管理上,TOKENSWIFT采用動態更新策略。系統在生成過程中將初始KV緩存保留,同時根據Token的重要性對后續緩存進行有序替換。

這種方式不僅有效控制了緩存的規模,還確保了關鍵信息始終被保存,大幅降低了因緩存加載帶來的延遲。

3)基于樹結構的多候選Token驗證

為保證生成結果與目標模型預測的一致性,TOKENSWIFT引入了樹形注意力機制。

通過構建包含多個候選Token組合的樹形結構,并采用并行驗證的方式,從中隨機選擇最長且有效的n-gram作為最終輸出,確保生成過程無損且多樣性得到提升。

4)上下文懲罰策略

為了進一步抑制重復生成問題,論文設計了一種上下文懲罰方法。該方法在生成過程中為近期生成的Token施加懲罰,使得模型在選擇下一Token時更傾向于多樣化輸出,從而有效減少重復現象。

圖片

TOKENSWIFT效果如何?

實驗部分,論文在多種模型架構(包括MHA和GQA)及不同規模(1.5B、7B、8B、14B)上進行了充分測試。

結果表明,TOKENSWIFT在生成10萬Token長序列時,相較于傳統自回歸方法,平均實現了3倍以上的加速,且生成結果在準確性和多樣性上基本保持無損。

1)加速效果

實驗數據顯示,在LLaMA3.1-8B模型下,傳統AR生成10萬Token約需4.9小時,而使用TOKENSWIFT后僅需90分鐘,大幅節省時間。在Qwen2.5-14B時,傳統AR生成10萬Token更是達到了7.9小時,加速后僅需142分鐘。這一成果對于實際應用中需要實時或高效長文本生成的場景具有重要意義。

2)驗證率與接受率

論文設計了多項指標來評估生成質量,包括Token接受率和Distinct-n指標。結果表明,TOKENSWIFT不僅在速度上顯著領先,還能在保持無損生成的前提下,有效提升文本的多樣性。

圖片

消融實驗與案例分析

在深入理解TOKENSWIFT各模塊貢獻的過程中,論文還進行了全面的消融實驗和案例分析,為優化方案提供了充分依據。

消融實驗:關鍵組件的作用

  • Token復用消融:實驗中將Token復用參數設為0(即不復用),結果顯示,接受率和生成速度均顯著下降,表明復用機制在減少模型加載次數、提升整體效率方面發揮了關鍵作用。
  • KV緩存更新策略對比:研究對比了全量緩存、一次性更新和動態更新三種方案。結果表明,全量緩存雖然在接受率上略占優勢,但其高計算開銷使得整體加速效果不理想;而一次性更新則因緩存膨脹導致性能下降。動態更新策略則在保持高接受率的同時,實現了最佳的速度與資源平衡。
  • 上下文懲罰效果:在不同采樣方法下,加入上下文懲罰后,生成文本的Distinct-n指標明顯提高。

例如,在min-p采樣場景下,Distinct-n平均得分從0.12提升至0.69,僅帶來約8%的速度損失,充分驗證了該策略在抑制重復生成方面的有效性。

圖片

案例分析:真實生成對比

論文還對比了在有無上下文懲罰條件下生成文本的差異,案例分析結果令人印象深刻:

  • 重復現象的抑制:在未使用上下文懲罰時,生成文本在大約5K Token處就出現明顯重復,且多為逐字重復;而采用上下文懲罰后,重復問題明顯延遲至約60K Token,且重復部分多表現為語義層次上的相似,而非直接復制,整體文本連貫性和可讀性大幅改善。
  • 文本質量的提升:案例對比顯示,使用完整TOKENSWIFT流程的生成結果在邏輯連貫性、表達多樣性和創新性方面均優于傳統方法,為實際應用提供了更高質量的文本輸出。

圖片

通過這些消融實驗和案例分析,論文不僅證明了各關鍵技術模塊的重要性,也為后續優化指明了方向,充分體現了TOKENSWIFT在超長文本生成領域的先進性和實用性。

Arxiv:https://arxiv.org/abs/2502.18890
Github:https://github.com/bigai-nlco/TokenSwift
Blog:https://bigai-nlco.github.io/TokenSwift/

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-02-21 07:02:33

2023-05-29 12:13:58

模型AI

2025-02-19 08:00:00

2025-02-13 13:00:00

2025-01-02 12:22:09

2024-11-08 15:00:00

AI模型

2025-01-26 09:30:00

AI模型框架

2025-03-27 09:34:42

2025-04-22 09:12:00

AI模型數據

2025-02-17 10:41:16

2023-05-23 14:06:53

微軟研究

2025-03-06 17:29:21

2017-03-16 08:46:57

延時消息環形隊列數據結構

2025-04-22 15:32:06

AI模型LLM

2025-03-10 07:00:00

阿里開源QwQ-32B

2025-06-03 17:38:24

模型AIDeepSeek

2023-08-29 07:02:09

3D
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 在线久草 | 国产一区二区黑人欧美xxxx | 天天操夜夜操免费视频 | 国产福利视频导航 | 中文字幕11页 | 97精品国产97久久久久久免费 | 国产欧美精品 | 免费永久av| 97久久精品午夜一区二区 | 欧美在线一区二区三区 | 国产精品毛片一区二区三区 | 亚洲福利网 | 中文一区二区视频 | 日韩一区二区三区在线 | 99热这里都是精品 | 久草在线青青草 | 亚洲视频中文字幕 | 99精品国产一区二区三区 | 亚洲综合大片69999 | 国产一区二区免费电影 | 天天色综网 | 91精品国产综合久久香蕉麻豆 | 激情黄色在线观看 | 国产综合久久久久久鬼色 | 亚洲视频网 | 国产精品久久久久久亚洲调教 | 国产1区2区在线观看 | 精品视频久久久 | 一区二区三区中文字幕 | 少妇无套高潮一二三区 | 成人不卡 | 国产一区二区精品在线观看 | 三级成人在线 | 亚洲精品乱码久久久久久蜜桃91 | 国产一区久久 | 久久精品91久久久久久再现 | 九一在线观看 | 国产精品亚洲视频 | 国产二区精品视频 | 中文在线观看视频 | 国产美女在线播放 |