成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

定制你的AI助手:大型語言模型適配方法詳解

發布于 2024-9-10 11:19
瀏覽
0收藏

定制你的AI助手:大型語言模型適配方法詳解-AI.x社區

這是一個由三部分組成的系列博客文章中的第一篇,主題是關于如何適配開源大型語言模型(LLMs)。在這篇文章中,我們將探討適配LLMs到特定領域數據的各種方法。

  • 在第2部分,我們將討論如何確定微調是否適合你的使用場景。
  • 在第3部分,我們將探討一些整理優質訓練數據集的經驗法則。

引言

大型語言模型(LLMs)在大量語言任務和自然語言處理(NLP)基準測試中展現出了卓越的能力。基于這些"通用"模型的產品應用正在興起。在這篇博客文章中,我們將為希望適配和整合LLMs到自己項目中的小型AI產品團隊提供指導。讓我們首先澄清LLMs相關的(常常令人困惑的)術語,然后簡要比較可用的不同適配方法,最后推薦一個step-by-step流程圖來為你的使用場景識別正確的方法。

LLM適配方法

預訓練

預訓練是使用數萬億數據token從頭開始訓練LLM的過程。模型使用自監督算法進行訓練。最常見的是通過自回歸地預測下一個token來進行訓練(也稱為因果語言建模)。預訓練通常需要數千個GPU小時(10^5 – 10^7 [來源1, 來源2])分布在多個GPU上。預訓練輸出的模型被稱為基礎模型。

持續預訓練

持續預訓練(又稱二階段預訓練)涉及使用新的、未見過的領域數據進一步訓練基礎模型。使用與初始預訓練相同的自監督算法。通常涉及所有模型權重,并將一部分原始數據與新數據混合。

微調

微調是使用帶注釋的數據集以監督方式或使用基于強化學習的技術來適配預訓練語言模型的過程。與預訓練相比有兩個主要區別:

  1. 在帶注釋的數據集上進行監督訓練——包含正確的標簽/答案/偏好——而不是自監督訓練
  2. 需要更少的token(數千或數百萬,而不是預訓練所需的數十億或數萬億),其主要目的是增強指令跟隨、人類對齊、任務表現等能力

理解當前微調領域有兩個維度:改變的參數百分比和微調結果增加的新能力。

改變的參數百分比

根據改變的參數數量,有兩類算法:

  1. 全量微調:顧名思義,這包括改變模型的所有參數,包括在較小模型(如XLMR和BERT,1億-3億參數)上進行的傳統微調,以及在大型模型(如Llama 2、GPT3,10億+參數)上進行的微調等。
  2. 參數高效微調(PEFT):不同于微調所有LLM權重,PEFT算法只微調少量額外參數或更新預訓練參數的一個子集,通常是總參數的1-6%。

為基礎模型增加的能力

進行微調的目的是為預訓練模型增加能力——例如:指令跟隨、人類對齊等。經過聊天微調的Llama 2是一個微調模型的例子,增加了指令跟隨和對齊能力。

檢索增強生成(RAG)

企業也可以通過添加特定領域的知識庫來適配LLMs。RAG本質上是"搜索驅動的LLM文本生成"。RAG于2020年被引入,它使用基于用戶問題檢索到的動態提示上下文,并將其注入到LLM提示中,以引導模型使用檢索到的內容,而不是其預訓練的——可能已過時的——知識。Chat LangChain是一個由RAG驅動的流行的LangChain文檔問答聊天機器人。

上下文學習(ICL)

通過ICL,我們通過在提示中放置原型示例來適配LLM。多項研究表明"通過示例演示"是有效的。這些示例可以包含不同類型的信息:

  • 僅輸入和輸出文本——即少樣本學習
  • 推理痕跡:添加中間推理步驟;參見思維鏈(CoT)提示
  • 計劃和反思痕跡:添加教導LLM進行計劃和反思其問題解決策略的信息;參見ReACT

還存在多種其他修改提示的策略,Prompt Engineering Guide包含了全面的概述。

選擇正確的適配方法

定制你的AI助手:大型語言模型適配方法詳解-AI.x社區

為了決定哪些上述方法適合特定應用,你應該考慮各種因素:所追求任務所需的模型能力、訓練成本、推理成本、數據集類型等。下面的流程圖總結了我們的建議,以幫助你選擇正確的LLM適配方法。

? 預訓練

預訓練是LLM訓練的重要部分,使用token預測變體作為損失函數。其自監督性質允許在大量數據上進行訓練。例如,Llama 2在2萬億個token上進行了訓練。這需要大規模的計算基礎設施:Llama 2 70B花費了1,720,320 GPU小時。因此,對于資源有限的團隊,我們不建議將預訓練作為LLM適配的可行方法。

由于預訓練在計算上是禁止的,更新已經預訓練的模型權重可能是適配LLM以完成特定任務的有效方法。任何更新預訓練模型權重的方法都容易遭受災難性遺忘現象,這是一個術語,指模型忘記先前學習的技能和知識。例如,這項研究顯示了一個在醫療領域微調的模型在指令遵循和常見QA任務方面的性能如何下降。其他研究也表明,通過預訓練獲得的一般知識可能在后續訓練中被遺忘。例如,這項研究從領域知識、推理和閱讀理解的角度提供了一些LLMs知識遺忘的證據。

? 持續預訓練

考慮到災難性遺忘,最近的發展表明,持續預訓練(CPT)可以以預訓練所需計算成本的一小部分進一步提高性能。對于需要LLM獲得新轉換技能的任務,CPT可能是有益的。例如,據報道,持續預訓練在添加多語言能力方面取得了成功。

但CPT仍然是一個昂貴的過程,需要大量的數據和計算資源。例如,Pythia套件經歷了第二階段的預訓練,結果創建了FinPythia-6.9B。這個專門為金融數據設計的模型進行了18天的CPT,使用了一個包含240億個token的數據集。此外,CPT也容易發生災難性遺忘。因此,對于資源有限的團隊,我們不建議將持續預訓練作為LLM適配的可行方法。

總之,使用自監督算法和未注釋數據集來適配LLM(如在預訓練和持續預訓練中所做的那樣)是資源和成本密集型的,不推薦作為可行的方法。

? 全量微調和參數高效微調(PEFT)

與使用未注釋數據集進行預訓練相比,使用小型注釋數據集進行微調是一種更具成本效益的方法。通過將預訓練模型適配到特定任務,微調模型已被證明在廣泛的應用和專業領域(如法律、醫療或金融)中達到最先進的結果。

微調,特別是參數高效微調(PEFT),只需要預訓練/持續預訓練所需計算資源的一小部分。因此,這對于資源有限的團隊來說是一種可行的LLM適配方法。在本系列的第3部分,我們深入探討微調細節,包括全量微調、PEFT,以及如何進行微調的實用指南。

? 檢索增強生成(RAG)

RAG是另一種流行的LLM適配方法。如果你的應用需要從動態知識庫中提取信息(例如QA機器人),RAG可能是一個很好的解決方案。RAG系統的復雜性主要在于檢索引擎的實現。這種系統的推理成本可能更高,因為提示包括檢索到的文檔,而且大多數提供商使用按token計費的模型。在本系列的第2部分,我們更廣泛地討論RAG,并與微調進行比較。

? 上下文學習(ICL)

這是適配LLMs最具成本效益的方式。ICL不需要任何額外的訓練數據或計算資源,使其成為一種成本效益高的方法。然而,與RAG類似,由于在推理時處理更多的token,推理的成本和延遲可能會增加。

總結

創建基于LLM的系統是一個迭代過程。我們建議從簡單的方法開始,逐步增加復雜性,直到達成目標。上面的流程圖概述了這個迭代過程,為你的LLM適配策略提供了堅實的基礎。

本文轉載自??芝士AI吃魚??,作者: 愛滑冰的咸魚 ????

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 91成人在线 | 国产特一级黄色片 | av在线三级 | 国产福利在线 | 日韩在线视频一区二区三区 | 成人在线观看黄 | 日本视频免费观看 | 99精品国自产在线观看 | 在线看黄免费 | 黄色网址在线播放 | 91伦理片 | 亚洲天堂影院 | 91精品国产91久久久久久密臀 | 永久免费在线观看 | 国产一二三区电影 | www.久久久.com| 亚洲欧美激情网 | 久久久精品久 | 玖玖久久 | 国产一区二区三区四区 | 日韩网站在线观看 | 欧美一区二 | 18av在线播放 | japan25hdxxxx日本| 国产一区二区观看 | 色综合久久88色综合天天 | 国产精品久久久久影院色老大 | 成人精品一区二区户外勾搭野战 | 中文字幕在线视频免费视频 | 男女污污动态图 | 国产精品久久久久无码av | 999精品在线观看 | 国产精品美女久久久久久免费 | 亚洲精品一区二区三区蜜桃久 | 久久国产婷婷国产香蕉 | 成人免费视频网站在线看 | 午夜免费视频 | 欧美久久电影 | 色综合久久久 | av毛片 | 日韩av在线一区 |