成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大模型無限流式輸入推理飆升46%!國產開源加速「全家桶」,打破多輪對話長度限制

人工智能 新聞
大模型推理再次躍升一個新臺階!最近,全新開源的國產SwiftInfer方案,不僅能讓LLM處理無限流式輸入,而且還將推理性能提升了46%。

在大型語言模型(LLM)的世界中,處理多輪對話一直是一個挑戰。前不久麻省理工Guangxuan Xiao等人推出的StreamingLLM,能夠在不犧牲推理速度和生成效果的前提下,可實現多輪對話總共400萬個token的流式輸入,22.2倍的推理速度提升。

但StreamingLLM使用原生PyTorch實現,對于多輪對話推理場景落地應用低成本、低延遲、高吞吐等需求仍有優化空間。

Colossal-AI團隊開源了SwiftInfer基于TensorRT實現了StreamingLLM,可以進一步提升大模型推理性能46%,為多輪對話推理提供了高效可靠的落地方案。

開源地址:https://github.com/hpcaitech/SwiftInfer

StreamingLLM簡介

大語言模型能夠記住的上下文長度,直接影響了ChatGPT等大模型應用與用戶互動的質量。

如何讓LLM在多輪對話場景下保持生成質量,對推理系統提出了更高的要求,因為LLM在預訓練期間只能在有限的注意力窗口的限制下進行訓練。

常見的KV Cache機制能夠節約模型計算的時間,但是在多輪對話的情景下,key和value的緩存會消耗大量的內存,無法在有限的顯存下無限擴展上下文。

同時,訓練好的模型在不做二次微調的前提下也無法很好地泛化到比訓練序列長度更長的文本,導致生成效果糟糕。

來源:https://arxiv.org/pdf/2309.17453.pdf

StreamingLLM為了解決了這個問題,通過觀察了注意力模塊中Softmax的輸出,發現了attention sink的現象。

我們知道注意力機制會為每一個token分配一個注意力值,而文本最初的幾個token總是會分配到很多無用的注意力。

當我們使用基于滑動窗口的注意力機制時,一旦這幾個token被踢出了窗口,模型的生成效果就會迅速崩潰。但只要一直把這幾個token保留在窗口內,模型就能穩定地生成出高質量的文本。

比起密集注意力(Dense Attention)、窗口注意力(Window Attention)以及帶重計算的滑動窗口注意力(Sliding Window w/ Re-computing),StreamingLLM基于attention sink的注意力機制無論是在計算復雜度還是生成效果上都表現優異。

在不需要重新訓練模型的前提下,StreamingLLM能夠直接兼容目前的主流大語言模型并改善推理性能。

SwiftInfer:基于TensorRT的StreamingLLM實現

為了將StreamingLLM這一技術更好的應用到落地場景,Colossal-AI團隊成功地將StreamingLLM方法與TensorRT推理優化結合,不僅繼承了原始StreamingLLM的所有優點,而且還具有更高的運行效率。

此外,使用TensorRT-LLM的API,還能夠獲得接近于PyTorch API的模型編寫體驗。基于TensorRT-LLM,團隊重新實現了KV Cache機制以及帶有位置偏移的注意力模塊。

如下圖所示,假設窗口大小為10個token,隨著生成的token增加(由黃色方塊表示),我們在KV緩存中將中間的token踢出,與此同時,始終保持著文本開始的幾個token(由藍色方塊表示)。由于黃色方塊的位置會發生變化,在計算注意力時,我們也需要重新注入位置信息。

需要注意的是,StreamingLLM不會直接提高模型能訪問的上下文窗口,而是能夠在支持流式超多輪對話的同時保證模型的生成效果。

大模型無限輸入流推理加速46%

原版本的StreamingLLM可以可靠地實現超過400萬個token的流式輸入,實現了比帶重計算的滑動窗口注意力機制高出22.2倍的速度提升。

Colossal-AI團隊發布的SwiftInfer可以進一步提升推理性能,最多帶來額外的最多46%的推理吞吐速度提升,為大模型多輪對話推理提供低成本、低延遲、高吞吐的最佳實踐。TensorRT-LLM團隊也在同期對StreamingLLM進行了類似支持。

圖片

Colossal-AI社區動態

Colossal-AI目前已獲得GitHub星數三萬五千多顆,位列全球TOP400,細分賽道排名世界第一,可通過高效多維并行、異構內存等,降低AI大模型訓練/微調/推理的開發與應用成本,提升模型任務表現,降低GPU需求。作為主流開源AI大模型系統社區,Colossal-AI生態在多方面保持活躍更新。

圖片

Colossal-LLaMA-2-13B開源

Colossal-LLaMA-2-13B模型,僅用25B token數據和萬元算力,效果遠超基于 LLaMA-2 的其他中文漢化模型。

即使與其他采用中文語料,可能花費上千萬元成本,從頭預訓練的各大知名模型相比,Colossal-LLaMA-2在同規模下仍表現搶眼

13B 版本通過構建更為完善的數據體系,在知識性內容掌握程度,自然語言處理任務理解程度,以及安全性,價值觀等問題上,都有質的提升。

圖片

Colossal-AI云平臺

Colossal-AI云平臺在整合Colossal-AI系統優化和廉價算力的基礎上,近期發布了AI云主機的功能,方便用戶以近似裸機的方式進行AI大模型的開發和調試,并提供了多種使用方式,包括:Jupyter Notebook、ssh、服務本地端口映射和grafana監控,全方位的為用戶提供便捷的開發體驗。

同時,還為用戶預制了含有ColossalAI代碼倉庫和運行環境的docker鏡像,用戶無需環境和資源配置,便可一鍵運行ColossalAI代碼倉庫中的代碼樣例。

Colossal-AI開源地址:https://github.com/hpcaitech/ColossalAI

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-07-19 09:59:31

2023-01-05 09:33:37

視覺模型訓練

2023-10-12 14:40:10

AI模型

2023-09-02 12:49:01

2024-01-24 13:11:00

AI模型

2023-04-21 15:54:46

AI開源

2024-11-07 15:40:00

2025-06-09 08:30:00

2024-09-09 08:31:15

2022-06-01 16:47:53

AI模型開源

2025-04-30 16:48:07

2023-12-01 12:31:22

AI模型

2025-07-04 00:00:00

2025-06-12 09:10:21

2025-05-23 09:18:25

2023-08-14 07:20:10

2024-04-03 12:48:00

2019-10-16 16:04:12

Google發布會全家桶

2023-11-19 23:36:50

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产成人精品av | 欧美一区二区三区在线观看 | 欧美成人激情视频 | 日韩毛片在线视频 | 91精品国产一区二区三区 | 一区二区三区在线电影 | 成人一区二区电影 | 草草视频在线观看 | 欧美精品一区二区免费视频 | 欧美精品一区二区在线观看 | 91影视| www网站在线观看 | 国产成人综合在线 | 高清国产一区二区 | 日日欧美| aaaaaa大片免费看最大的 | 天天综合91 | 成人欧美一区二区 | 欧美日韩国产中文字幕 | 欧美国产精品一区二区三区 | 91资源在线 | 久久精品国产v日韩v亚洲 | 中文在线一区二区 | 国产亚洲精品美女久久久久久久久久 | 91视视频在线观看入口直接观看 | 日韩欧美不卡 | 一级片成人 | 美美女高清毛片视频免费观看 | 中文字幕的av | 亚洲精品成人 | 欧美中文字幕一区二区三区亚洲 | 日本成人免费网站 | 久久久久免费 | 欧美日韩国产在线 | 91精品国产91| 日本精品裸体写真集在线观看 | 久久精品女人天堂av | 一级毛片色一级 | 精品日韩一区二区 | 欧美一区二区二区 | 久久久免费精品 |