成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

清華和微軟聯合起來對提示詞下手了!直接縮短80%,跟大模型對話的頭疼系數直線下降!變相擴大了上下文窗口!

原創 精選
人工智能
為了應對這些挑戰,來自清華和微軟的研究人員提出了一種全新的數據精煉流程——LLMLingua-2,目的是從大型語言模型(LLM)中提取知識,實現在不丟失關鍵信息的前提下對提示詞進行壓縮,效果十分明顯,可以幫原有長度降低到20%。

出品 | 51CTO技術棧(微信號:blog51cto)

想一下,現在普通人調用個大模型有多別扭,你得一個個上傳文件,然后再告訴它自己想要什么樣的輸出,最好給它一套優秀的模版,它才能給出個像樣的回答。

這就好比你自己的大腦都快想出答案來了,它只不過是幫你理解下文檔做個歸納總結罷了。

現在,除了Kimi的長文本窗口解決了這樣一個痛點問題,清華和微軟似乎也找到了另一種解決思路:如果能從提示詞下手,把提示詞壓縮,不也就變相地擴大了模型支持的上下文窗口長度了嗎?

如果能將提示詞進行有效地壓縮,某種程度上也相當于擴大了模型支持上下文的長度。

大家都知道,文本信息都是有不少冗余的。目前就有信息熵方法,通過刪除某些詞或短語來減少這種冗余。

然而,作為依據的信息熵僅僅考慮了文本的單向上下文,進而可能會遺漏對于壓縮至關重要的信息;此外,信息熵的計算方式與壓縮提示詞的真正目的并不完全一致。

為了應對這些挑戰,來自清華和微軟的研究人員提出了一種全新的數據精煉流程——LLMLingua-2,目的是從大型語言模型(LLM)中提取知識,實現在不丟失關鍵信息的前提下對提示詞進行壓縮,效果十分明顯,可以幫原有長度降低到20%。

圖片圖片

據悉, LLMLingua已經被集成到LangChain和LlamaIndex兩個廣泛使用的RAG框架中。一經發布,在Github上就贏得了業界的關注,現在已經斬獲了3.2k Stars。

圖片圖片

此外,與前一版本LLMLingua以及其他類似技術相比,LLMLingua 2的處理速度提高了3到6倍。

一、實現方法三步走:提示設計、標注篩選、壓縮器

為了克服現有基于信息熵的文本壓縮方法所面臨的問題,LLMLingua-2采取了一種創新的數據提煉策略。

這一策略通過從GPT-4這樣的大語言模型中抽取精華信息,實現了在不損失關鍵內容和避免添加錯誤信息的前提下,對文本進行高效壓縮。

1.提示設計

要想充分利用GPT-4的文本壓縮潛力,關鍵在于如何設定精確的壓縮指令。

也就是在壓縮文本時,指導GPT-4僅移除那些在原始文本中不那么重要的詞匯,同時避免在此過程中引入任何新的詞匯。

這樣做的目的是為了確保壓縮后的文本盡可能地保持原文的真實性和完整性。

圖片圖片

2.標注與篩選

研究人員利用了從GPT-4等大語言模型中提煉出的知識,開發了一種新穎的數據標注算法。

這個算法能夠對原文中的每一個詞匯進行標注,明確指出在壓縮過程中哪些詞匯是必須保留的。

為了保證所構建數據集的高質量,他們還設計了兩種質量監控機制,專門用來識別并排除那些品質不佳的數據樣本。

圖片圖片

3.壓縮器

最后,研究人員將文本壓縮的問題轉化為了一個對每個詞匯(Token)進行分類的任務,并采用了強大的Transformer作為特征提取器。

這個工具能夠理解文本的前后關系,從而精確地抓取對于文本壓縮至關重要的信息。

圖片圖片

通過在精心構建的數據集上進行訓練,研究人員的模型能夠根據每個詞匯的重要性,計算出一個概率值來決定這個詞匯是應該被保留在最終的壓縮文本中,還是應該被舍棄。

研究人員在一系列任務上測試了LLMLingua-2的性能,這些任務包括上下文學習、文本摘要、對話生成、多文檔和單文檔問答、代碼生成以及合成任務,既包括了域內的數據集也包括了域外的數據集。

測試結果顯示,研究人員的方法在保持高性能的同時,減少了最小的性能損失,并且在任務不特定的文本壓縮方法中表現突出。

二、性能評估:學習、摘要、對話、代碼生成無損齊活

項目團隊成員在一系列任務上測試了LLMLingua-2的性能,這些任務包括上下文學習、文本摘要、對話生成、多文檔和單文檔問答、代碼生成以及合成任務,既包括了域內的數據集也包括了域外的數據集。

測試結果顯示,研究人員的方法在保持高性能的同時,減少了最小的性能損失,并且在任務不特定的文本壓縮方法中表現突出。

1.域內測試(MeetingBank)

研究人員將LLMLingua-2在MeetingBank測試集上的表現與其他強大的基線方法進行了對比。

盡管他們的模型規模遠小于基線中使用的LLaMa-2-7B,但在問答和文本摘要任務上,研究人員的方法不僅大幅提升了性能,而且與原始文本提示的表現相差無幾。

圖片圖片

2.跨域測試(LongBench、GSM8K和BBH)

考慮到研究人員的模型僅在MeetingBank的會議記錄數據上進行了訓練,研究人員進一步探索了其在長文本、邏輯推理和上下文學習等不同場景下的泛化能力。

值得注意的是,盡管LLMLingua-2只在一個數據集上訓練,但在域外的測試中,它的表現不僅與當前最先進的任務不特定壓縮方法相媲美,甚至在某些情況下表現更優。

圖片圖片

更多案例,詳情可以移步:https://github.com/microsoft/LLMLingua?tab=readme-ov-file

最后,不得不說,圍繞大模型,現在的研究越來越接地氣了!期待更好用的技術落地!

責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2023-07-28 12:13:28

模型語言性能

2024-03-14 08:11:45

模型RoPELlama

2024-07-17 13:11:22

2017-05-11 14:00:02

Flask請求上下文應用上下文

2024-02-20 18:51:54

MetaOpenAI特斯拉

2025-06-26 07:00:00

上下文工程AI智能體

2020-02-23 16:33:02

GitHub印度子公司

2024-01-03 17:40:49

模型AI

2023-08-10 14:04:15

代碼模型

2025-03-18 08:14:05

2024-03-29 14:04:00

模型訓練

2024-07-19 12:45:23

2010-09-26 09:35:58

2025-03-10 10:26:16

2018-06-17 08:38:17

微軟Windows應用程序

2009-10-19 16:20:53

機房與拓撲管理

2024-01-29 08:49:36

RAG模型檢索

2024-03-25 00:05:00

開源模型AI

2022-09-14 13:13:51

JavaScript上下文

2020-02-07 15:50:49

技術研發指標
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 午夜视频在线 | 国产福利网站 | 成人av在线播放 | 欧美综合国产精品久久丁香 | 91精品久久 | 国产亚洲精品成人av久久ww | 日韩在线视频播放 | 国产伊人久久久 | 最新国产在线 | 国产视频久久 | 一道本不卡视频 | 欧美啪啪网站 | 亚洲情侣视频 | 在线看一区二区三区 | 国产精品亚洲一区二区三区在线观看 | 久久天天躁狠狠躁夜夜躁2014 | 日韩精品不卡 | 99精品国自产在线观看 | 久久久女 | 成人福利在线视频 | 亚洲成人精品一区二区 | 日韩成年人视频在线 | 中文字幕一区二区三区乱码在线 | 亚洲一二三在线 | 欧美一区日韩一区 | 欧美小视频在线观看 | 91精品国产综合久久久久久丝袜 | 亚洲一区二区成人 | 国产乱码精品一品二品 | 91性高湖久久久久久久久_久久99 | 久久综合色综合 | 少妇无套高潮一二三区 | 亚洲激情自拍偷拍 | 免费观看a级毛片在线播放 黄网站免费入口 | 69性欧美高清影院 | 日本五月婷婷 | 99综合 | www.jizzjizz| 二区亚洲 | 91电影在线播放 | 自拍偷拍亚洲一区 |