成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

LeCun狂贊:600刀GPT-3.5平替! 斯坦福70億參數「羊駝」爆火,LLaMA殺瘋了

人工智能 新聞
Meta的LLaMA模型開源,讓文本大模型迎來了Stable Diffustion時刻。今天,斯坦福發布了一個由LLaMA 7B微調的模型Alpaca,訓練3小時,性能比肩GPT-3.5。

一覺醒來,斯坦福大模型Alpaca 火了。

圖片

沒錯,Alpaca是由Meta的LLaMA 7B微調而來的全新模型,僅用了52k數據,性能約等于GPT-3.5。

關鍵是訓練成本奇低,不到600美元。具體花費如下:

在8個80GB A100上訓練了3個小時,不到100美元;

生成數據使用OpenAI的API,500美元。

斯坦福大學計算機科學副教授Percy Liang稱,由于缺乏透明度/無法完全訪問像GPT 3.5這樣的有能力的指令模型,進而限制了這一重要領域的學術研究。我們在 Alpaca (LLaMA 7B + text-davinci-003)上邁出了一小步。

圖片

看到又有人在自家大模型上取得了新的成果,Yann LeCun瘋狂轉發(宣傳要到位)。

圖片

圖片

3小時微調70億參數,600美元搞定

話不多說,先試用一波。

問:告訴我一些關于羊駝的事情。

答:羊駝是來自南美洲的駱駝品種,與美洲駝和駱駝有關。它們通常因其纖維而被飼養,用于制造奢侈品,如毛衣和毛毯。由于羊駝的溫柔和友好的天性,它們也是很受歡迎的寵物。

體驗鏈接:https://crfm.stanford.edu/alpaca/

圖片

對于斯坦福的團隊來說,想要在預算內訓練一個高質量的指令遵循模型,就必須面臨2個重要的挑戰:要有一個強大的預訓練語言模型,以及一個高質量的指令遵循數據。

恰恰,提供給學術研究人員使用的LLaMA模型搞定了第一個問題。

對于第二個挑戰,「Self-Instruct: Aligning Language Model with Self Generated Instructions」論文給了很好的啟發,即使用現有的強語言模型來自動生成指令數據。

然而,LLaMA模型最大的弱點是缺乏指令微調。OpenAI最大的創新之一就是將指令調優用在了GPT-3上。

對此,斯坦福使用了現有的大語言模型,來自動生成遵循指令演示。

圖片

首先從自生成指令種子集中的175個人工編寫的「指令-輸出」對開始,然后,提示text-davinci-003使用種子集作為上下文示例來生成更多指令。

通過簡化生成管道改進了自生成指令的方法,這樣大大降低了成本。在數據生成過程中,產生了52K個獨特指令和相應的輸出,使用OpenAI API的成本不到500美元。

有了這個指令遵循的數據集,研究人員利用Hugging Face的訓練框架對LLaMA模型進行微調,利用了完全分片數據并行(FSDP)和混合精度訓練等技術。

另外,微調一個7B的LLaMA模型在8個80GB的A100上花了3個多小時,在大多數云計算供應商那里的成本不到100美元。

約等于GPT-3.5

為了評估Alpaca,斯坦福研究人員對自生成指令評價集的輸入進行了人工評估(由5位學生作者進行)。

這個評價集是由自生成指令作者收集的,涵蓋了多樣化的面向用戶的指令,包括電子郵件寫作、社交媒體和生產力工具等。

他們對GPT-3.5(text-davinci-003)和Alpaca 7B進行了比較,發現這兩個模型的性能非常相似。Alpaca在與GPT-3.5的比較中,獲勝次數為90對89。

鑒于模型規模較小,且指令數據量不大,取得這個結果已經是相當驚人了。

除了利用這個靜態評估集,他們還對Alpaca模型進行了交互式測試,發現Alpaca在各種輸入上的表現往往與GPT-3.5相似。

斯坦福用Alpaca進行的演示:

演示一讓Alpaca來談談自己和LLaMA的區別。

圖片

演示二讓Alpaca寫了一封郵件,內容簡潔明了,格式也很標準。

圖片

上述例子可以看出,Alpaca的輸出結果一般都寫得不錯,而且答案通常比ChatGPT簡短,體現了GPT-3.5較短輸出的風格。

當然了,Alpaca表現出語言模型常見的缺陷。

比如,將坦桑尼亞的首都說成了達累斯薩拉姆。實則,1974年之后,多多馬是坦桑尼亞的新首都了,達累斯薩拉姆只是坦桑尼亞最大的城市。

圖片

撰寫周詳的論文摘要時,Alpaca傳播了錯誤的信息。

圖片

另外,Alpaca可能還存在許多與底層語言模型和指令微調數據相關的局限。然而,Alpaca為我們提供了一個相對輕量級的模型,它可以成為未來研究大模型重要缺陷的基礎。

目前,斯坦福僅公布了Alpaca的訓練方法和數據,并打算在未來發布模型的權重。

但是,Alpaca是不能用于商業用途,只能用于學術研究。具體原因有三:

1. LLaMA是一個非商業許可的模型,Alpaca是基于該模型生成的;

2. 指令數據是基于OpenAI的text-davinci-003,其使用條款禁止開發與OpenAI競爭的模型;

3. 沒有設計足夠多的安全措施,所以Alpaca還沒有做好廣泛使用的準備

除此之外,斯坦福研究人員總結了Alpaca未來研究會有三個方向。

  • 評估:

從HELM(語言模型的整體評估)開始捕捉更多的生成性、遵循指令的場景。

  • 安全:

進一步研究Alpaca的風險,并使用自動紅隊分組、審計和適應性測試等方法提高其安全性。

  • 理解:

希望能更好地理解模型能力是如何從訓練方法中產生的。需要基礎模型的什么屬性?擴大模型規模時會發生什么?需要指令數據的什么屬性?在GPT-3.5上,除了使用自生成指令,還有什么替代方法?

大模型的Stable Diffusion

現在,斯坦福「羊駝」直接被網友奉為「文本大模型的Stable Diffusion」。

Meta的LLaMA模型可以免費給研究人員使用(當然需要申請后)簡直利好AI圈友們。

自ChatGPT橫空出世以來,讓許多人對AI模型的內置限制感到沮喪。這些限制阻止ChatGPT討論OpenAI認為敏感的話題。

因此,AI社區便希望能夠有一個開源大語言模型(LLM),任何人都可以在本地運行而無需審查,也無需向OpenAI支付API費用。

要說這樣開源大模型現在也有,比如GPT-J,但美中不足的是需要大量的GPU內存和存儲空間。

另一方面,其他開源平替版無法在現成的消費級硬件上擁有GPT-3級別的性能。

2月底,Meta推出了最新的語言模型LLaMA,參數量分別是70億(7B)、130億(13B)、330億(33B)和650億(65B)。評測結果顯示,其13B版本便可以與GPT-3相媲美。

圖片

論文地址:https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/

雖然Meta向通過申請的研究人員開放源代碼,但沒想到網友最先在GitHub上泄漏了LLaMA的權重。

自此,圍繞LLaMA語言模型的發展呈爆炸式增長。

通常,運行GPT-3需要多個數據中心級A100 GPU,再加上GPT-3的權重不是公開的。

網友紛紛自己「操刀」運行LLaMA模型一時引起了轟動。

通過量化技術對模型大小進行優化,LLaMA現在可以在M1 Mac、較小Nvidia消費者GPU、Pixel 6手機、甚至是樹莓派上運行。

網友總結了,從LLaMA的發布到現在,大家利用LLaMA做出的一些成果:

2月24日,LLaMA發布,并在非商業許可下提供給政府、社區和學術界的研究人員和實體工作者;

3月2日,4chan網友泄露了全部的LLaMA模型;

3月10日,Georgi Gerganov創建了llama.cpp工具,可以在搭載M1/M2芯片的Mac上運行LLaMA;

3月11日:通過llama.cpp可以在4GB RaspberryPi上運行7B模型,但速度比較慢,只有10秒/token;

3月12日:LLaMA 7B在一個node.js執行工具NPX上成功運行;

3月13日:llama.cpp可以在Pixel 6手機上運行;

而現在,斯坦福Alpaca「羊駝」發布。

One More Thing

項目沒放出多久,Alpaca火爆到直接不能用了....

圖片

許多網友吵吵,點「生成」沒反應,還有的在排隊等玩兒。

圖片

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-03-31 13:55:00

模型智能

2023-03-15 10:26:00

模型開源

2023-03-22 15:14:00

數據模型

2023-12-12 13:57:00

GPT-3.5MistralAI

2023-03-14 12:45:32

2024-06-03 14:19:00

AI訓練

2023-05-26 10:50:38

模型AI

2024-01-02 14:07:00

2023-06-05 15:44:15

GPT-4AI

2024-02-05 09:00:00

2023-04-21 10:14:22

開源AI

2024-08-01 12:48:29

AI訓練

2023-04-07 13:54:37

模型AI

2024-01-02 06:30:58

ChatGPTGPT-3.5

2023-11-29 14:53:00

AI數據

2023-09-21 12:31:54

AI數據

2023-06-27 09:14:52

微軟LLM AI 模型

2023-07-07 17:03:23

AI智能

2023-12-12 13:16:00

模型訓練

2023-10-20 16:57:09

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 性生活毛片| 亚洲视频区 | 欧美日产国产成人免费图片 | 亚洲免费三区 | 日韩爱爱网 | 亚洲欧美日韩精品 | 国产你懂的在线观看 | 91久久精| 在线播放一区二区三区 | 97精品超碰一区二区三区 | 97国产一区二区 | 中文字字幕一区二区三区四区五区 | 日韩精品免费一区 | 久久影音先锋 | 亚洲精品国产成人 | 大乳boobs巨大吃奶挤奶 | 国产精品美女久久久久久久久久久 | 九色91视频| 丁香六月伊人 | 精品毛片 | 久久成人18免费网站 | 亚洲人成人一区二区在线观看 | 成人免费小视频 | 精品国产一区二区三区av片 | 久久久毛片 | 中文字幕一区二区三区精彩视频 | 中文字幕在线观看一区 | 亚洲欧美精品在线 | 欧美成人a∨高清免费观看 色999日韩 | 91一区二区三区 | 一区二区精品 | 女人牲交视频一级毛片 | 九九久久精品视频 | 成人免费视频网站在线看 | 美女露尿口视频 | 国产欧美一区二区三区日本久久久 | 最新黄色在线观看 | 91在线一区二区三区 | 久一精品 | 欧美日韩精品综合 | 一区二区三区视频在线观看 |