成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

低成本LLM應用開發利器——開源FrugalGPT框架

譯文 精選
人工智能 開源
隨著世界創造出更多的LLM,我們也越來越多地構建使用它們的系統,我們希望找到更加節約成本的方法來運行它們。本文討論的FrugalGPT論文為未來的開發人員創建了一個強大的框架,讓我非常想知道這個框架能走多遠。

想了解更多AIGC的內容,請訪問:

51CTO AI.x社區

http://m.ekrvqnd.cn/aigc/

本文將詳細介紹一個LLM驅動型應用程序的成本節約架構FrugalGPT。

大型語言模型為計算機科學開辟了一個新的前沿;然而,它們(截至2024年)的運營成本遠遠高于計算機科學中的其他任何產品。對于希望將運營成本降至最低的公司來說,這是一個嚴重的問題。論文《FrugalGPT:如何在降低成本和提高性能的同時使用大型語言模型》(https://arxiv.org/abs/2305.05176)介紹了一種在保持質量的同時顯著降低運營成本的框架。

如何衡量LLM的成本

當前,已經存在多種方法可以確定LLM的運營成本(電力使用、計算成本等);但是,如果您使用第三方LLM(LLM-as-a-service),他們通常會根據您使用的詞元(token)向您收費。不同的供應商(OpenAI、Anthropic、Cohere等)使用不同的詞元計數方式,但為了簡單起見,我們將考慮基于LLM處理的詞元數量的成本。

這種類型的框架最重要的部分是不同模型的成本不同。這篇論文的作者們構造了一個方便的表格,表格數據可以很容易地展現成本間的差異,而且這些差異是非常顯著的。例如,在該表中,AI21的輸出詞元的成本比GPT-4的高出一個數量級!

本表數據來自上述FrugalGPT論文

作為成本優化的一部分,我們總是需要找到一種方法來優化答案質量,同時還要盡可能將成本降至最低。通常,成本較高的模型往往是性能較高的模型,能夠給出比成本較低的模型更高質量的答案。模型間的一般關系如下圖所示;其中,FrugalGPT的性能以紅色明顯展示在圖表的頂部位置。

注意,論文中的圖1c(即上圖)基于HEADLINES數據集創建,其根據LLM準確回答問題的頻率對各種LLM進行了比較。

級聯LLMS實現質量最優化

利用模型之間的巨大成本差異,研究人員推出的FrugalGPT系統能夠依賴于一系列的LLM實現給用戶提供答案。簡單地說,用戶查詢從最便宜的LLM開始;如果答案足夠好,則查詢結束(返回答案)。但是,如果答案不夠好,則將查詢傳遞給下一個最便宜的LLM。

研究人員使用了以下邏輯:如果一個價格較低的模型答錯了一個問題,那么價格較高的模型很可能會給出正確的答案。因此,假設價格越貴質量就越高,為了最大限度地降低成本,規定模型鏈的訂購順序是從最便宜到最昂貴。

論文中的圖2e展示了LLM級聯式示意圖。

很明顯,圖中展示的這種設置架構依賴于確定答案何時足夠好,何時不夠好。為了解決這個問題,作者創建了一個DistilBERT模型,該模型將接受問題和答案,然后為答案打分。由于DistilBERT模型比序列中的其他模型小得多(指數量級),因此與其他模型相比,運行它的成本幾乎可以忽略不計。

比查詢最佳LLM更好的平均質量

人們可能會自然而然地問:如果質量是最重要的,那么,為什么不查詢最好的LLM并研究如何降低運行最好LLM的成本呢?

當這篇論文發表時,GPT-4是作者們發現的最好的LLM;但是,GPT-4并不總是比FrugalGPT系統給出更好的答案!(眼尖的讀者會將其視為本文前面的成本相對于性能圖表的一部分)論文作者們推測,正如最有能力的人并不總是給出正確的答案一樣,最復雜的模型也不會。因此,通過使用DistilBERT對答案進行過濾,您可以刪除任何不符合標準的答案,并增加獲得優秀答案的幾率。

論文中的圖5a顯示了FrugalGPT優于GPT-4的情形。

因此,這個系統不僅可以降低成本,而且可以提高質量,而不僅僅是使用最好的LLM!

繼續研究節省成本問題

這篇論文的結果令人著迷。對我來說,這提出了一個問題,即我們如何在不必投資于進一步的模型優化的情況下進一步節省成本。

實現這樣的可能性的一種辦法是將所有模型答案緩存在向量數據庫中,然后在開始LLM級聯之前進行相似性搜索以確定緩存中的答案是否有效。這將通過用相對較低成本的查詢和相似性操作代替昂貴的LLM操作來顯著降低成本。

此外,這會讓你懷疑過時的模型是否仍然值得進行成本優化,就像你可以降低它們的每個詞元的成本一樣,它們仍然可以在LLM級聯上創造價值。同樣,這里的關鍵問題是,在什么時候通過在鏈上添加新的LLM來獲得遞減回報。

有待進一步研究的問題

隨著世界創造出更多的LLM,我們也越來越多地構建使用它們的系統,我們希望找到更加節約成本的方法來運行它們。本文討論的FrugalGPT論文為未來的開發人員創建了一個強大的框架,讓我非常想知道這個框架能走多遠。

在我看來,這個框架非常適合于基于不同用戶的答案統一型的一般查詢,例如導師型LLM。然而,對于答案因用戶而異的使用場景,例如充當客戶服務代理的LLM,評分系統必須知道LLM與誰交談。

總之,找到一個能為用戶特定交互而又節約成本的框架未來將是非常重要的。

主要參考文獻

[1] Chen, L.,等人,FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance (2023),arXiv。

譯者介紹

朱先忠,51CTO社區編輯,51CTO專家博客、講師,濰坊一所高校計算機教師,自由編程界老兵一枚。

原文標題:FrugalGPT and Reducing LLM Operating Costs,作者:Matthew Gunton

鏈接:https://towardsdatascience.com/frugalgpt-and-reducing-llm-operating-costs-ff1a6428bf96。

想了解更多AIGC的內容,請訪問:

51CTO AI.x社區

http://m.ekrvqnd.cn/aigc/

責任編輯:姜華 來源: 51CTO內容精選
相關推薦

2023-12-27 08:00:00

SQL數據庫LMQL

2022-12-09 14:07:11

框架開源

2015-05-19 11:46:45

IT管理應用云應用開發

2024-03-22 09:45:34

大型語言模型Unity引擎游戲開發

2011-08-22 10:41:45

2023-12-07 12:38:09

架構低成本開發

2013-04-19 09:56:35

云通訊開發者API

2021-12-21 23:21:16

DDOS防御安全

2012-10-18 19:25:21

佳能

2018-05-21 21:29:15

云計算成本互聯網

2023-09-10 10:45:37

模型人工智能

2011-07-05 15:39:50

FTTH

2010-03-23 10:03:25

2009-07-06 14:03:01

高性能Web應用緩存

2010-07-12 10:17:53

VMware深圳航空成本

2020-06-09 15:13:15

2023-06-30 09:00:00

Falcon LLM開源

2024-09-06 10:46:04

2024-08-21 13:18:43

2024-05-06 12:52:30

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91久久夜色 | 成年免费在线观看 | 夜夜爽99久久国产综合精品女不卡 | 欧美在线视频网站 | 国产一区二区激情视频 | 久草网站 | 午夜色播 | 亚洲人成人一区二区在线观看 | 久久久久久久久久久丰满 | 人人做人人澡人人爽欧美 | 最新国产精品精品视频 | 91精品国产乱码久久久久久 | 91精品国产综合久久婷婷香蕉 | 婷婷午夜天 | 免费国产一区二区视频 | 日韩一区二区三区在线观看 | 激情一区二区三区 | 精品一区二区三区四区五区 | 高清亚洲| 国产精品美女久久久久久久久久久 | 国产精品久久av | 国产福利91精品一区二区三区 | 激情五月婷婷在线 | 亚洲欧美一区二区三区国产精品 | 粉嫩国产精品一区二区在线观看 | 日韩一区二区三区在线 | 日韩欧美高清dvd碟片 | 亚卅毛片 | 中文字幕精品一区二区三区精品 | 91麻豆精品国产91久久久更新资源速度超快 | 亚洲综合大片69999 | 亚洲嫩草 | 四虎永久免费在线 | 在线观看国产视频 | 日日干夜夜干 | 国产精品久久久久久久久久妞妞 | 在线观看中文字幕视频 | 国产精品日韩欧美一区二区三区 | 久久久www成人免费无遮挡大片 | 亚洲欧美日韩成人在线 | 99精品国自产在线 |