成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

針對特定領域較小的語言模型是否與較大的模型同樣有效?

人工智能
經過2023年的發展,大語言模型展示出了非常大的潛力,訓練越來越大的模型成為有效性評估的一個關鍵指標,論文《A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs for Financial Sentiment Analysis》中,作者全面分析了微調大語言模型(llm)及其在金融情緒分析中的零樣本和少樣本的能

經過2023年的發展,大語言模型展示出了非常大的潛力,訓練越來越大的模型成為有效性評估的一個關鍵指標,論文《A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs for Financial Sentiment Analysis》中,作者全面分析了微調大語言模型(llm)及其在金融情緒分析中的零樣本和少樣本的能力。

作者通過使用兩種方法來探索金融情緒分析背景下的潛力和適用性:

  • 在特定的領域(金融領域)的數據集上,使用小語言模型進行微調,作者測試了250M到3B參數各種模型
  • 以gpt-3.5 turbo為重點的情境學習

作者還將結果與SOTA(最先進的)模型進行比較以評估其性能,我們看看小模型是否還同樣有效。

論文證明了以下觀點:

  • 微調較小的llm可以達到與SOTA微調llm相當的性能。
  • 零樣本和少樣本學習的的性能與經過微調的小型llm相當。
  • 增加上下文學習中的樣本數量并不一定會提高情感分析任務的性能。
  • 微調較小的llm會降低成本和提高計算效率。

作者專注于使用QLoRa (Quantized low - rank - adaptive)機制對FLAN-T5模型進行微調。使用財務特定數據集,研究了3種尺寸:Flan-T5 base (250M), Flan-T5 large (780M)和Flan-T5-xl (3B參數)。

論文概述

論文首先總結了特定于金融領域的SOTA模型:

  • FinBERT:使用總計4.9B Token組的金融通信語料庫進行微調的BERT。
  • bloomberg ggpt:這是一個包含50B個參數的閉源模型,專門針對各種金融數據進行訓練。它在情感分析中表現出良好的性能。
  • 使用LLama-7B對FinGPT進行微調。該模型使用更少的計算資源實現了與bloomberg ggpt相當的性能。
  • ChatGPT這樣的llm也可以使用零樣本學習。但是他們在少樣本學習中表現并不理想

作者使用了以下模型:

1、沒有進行任何微調:Flan-T5 base (250M), Flan-T5 large (780M), Flan-T5-xl (3B參數),ChatGPT (gpt-3.5 turbo)。目標是研究模型的大小對零樣本和少樣本學習的影響。

2、微調llm:具有3個尺寸的相同型號的Flan-T5已經進行了微調。

數據集

使用了Twitter財經新聞(Twitter Train),包括與金融主題相關的推文,可通過HuggingFace訪問。它包含9540個樣本。

TFSN: 2390個帶有注釋的財經相關推文語料庫樣本。

FPB: 4845篇金融新聞文章樣本,由16位領域專家注釋。

GPU資源

為了對3個模型進行微調,作者使用了A100 GPU,每個模型的總訓練時間如下:基本模型28分鐘,大模型54分鐘,XL模型65分鐘,所以說這個微調是非常節省資源的。

微調小型LLMs

結果顯示了經過微調的小型llm優于大型llm的性能:

所有Fine-tuned-FLAN-T5的性能都優于FinBERT;Large (780M)和XL(3B) fine - tuning - flan - t5性能優于directive - lama- 7b;在TFSN數據集中,即使是基礎(250M)微調的flan - t5也比使用ChatGPT (gpt-3.5 turbo)的k-shot上下文學習表現更好。

少樣本學習

以下是0 -shot和k-shot學習的結果(k= 1,5和10):

在TFSN數據集上,零樣本和少樣本學習的表現明顯低于所有其他微調模型。(除了XL,表現比FinBert稍好)

但是在FPB數據集中,與ChatGPT相比,Large和XL Flan-T5零樣本和少樣本學習表現出較強的性能。

樣本的增加使得基本型Flan-T5的性能略有提升。但在Large和XL fall - t5中,這導致精度下降。這是因為冗長的上下文窗口可能會導致LLM誤入歧途。

所以作者建議,當k-shot增加時可以使用語義相似檢索或思維鏈(CoT)或線索和推理提示(CARP)方法來解決性能下降的問題。

總結

可以看到,針對特定的領域,微調小模型還是能過夠得到很好的效果,這在對于我們實際應用是是非常有幫助的,不僅可以節省成本,還可以節省我們的訓練時間,可以讓我們進行快速的版本迭代。

論文地址:https://arxiv.org/pdf/2312.08725.pdf

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2023-11-27 15:34:51

大語言模型PubMedBERT

2023-05-29 08:00:00

ChatGPT人工智能機器學習

2024-12-12 09:11:58

2024-07-10 11:38:15

2024-04-02 07:25:19

大語言模型青少年編程NLG

2024-07-09 11:01:24

2024-08-13 08:09:34

2023-09-07 15:01:45

2017-11-17 05:39:27

DDD建模模型

2010-08-19 11:47:28

2024-04-23 07:52:25

2024-06-18 08:21:31

2025-04-22 08:08:37

2024-05-16 16:37:33

大型語言模型人工智能

2024-02-26 08:15:43

語言模型低代碼

2024-12-23 16:02:39

2018-04-26 05:13:39

6W模型領域軟件構造

2023-11-30 14:38:56

2025-03-17 12:52:44

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美日韩在线电影 | 日韩在线观看精品 | 91精品国产乱码久久久久久 | 日日爽| 99re6热在线精品视频播放 | 中文天堂在线一区 | 久久精品二区 | 欧美不卡网站 | 国产欧美一区二区三区久久手机版 | 日韩在线中文字幕 | 国产精品污www在线观看 | 国产精品久久国产精品 | 69av网| 99re热精品视频国产免费 | 精品视频一区二区三区在线观看 | 99re视频 | 黄色大片免费播放 | 中文字幕成人av | 福利一区二区 | 久久蜜桃资源一区二区老牛 | 正在播放国产精品 | 精品99久久久久久 | 国产精品欧美一区二区 | 在线综合视频 | 欧美精品一区二区三区在线 | 正在播放国产精品 | 香蕉久久av | 国产午夜亚洲精品不卡 | 久久伊人亚洲 | 911网站大全在线观看 | 亚洲不卡在线观看 | 久久国产日本 | 成人精品鲁一区一区二区 | 成人免费视频观看视频 | 视频一区在线播放 | av免费网| 国产精品99 | 国产精品一区二区三 | 91在线视频在线观看 | 99re热这里只有精品视频 | 国产成人精品a视频一区www |