成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

LLaMA模型慘遭泄漏,Meta版ChatGPT被迫「開源」!GitHub斬獲8k星,評測大量出爐

人工智能 新聞
模型開源,但不夠體面?現在,網友會幫你體面……

ChatGPT角逐之戰愈演愈烈。

前幾周,Meta發布了自家的大型語言模型LLaMA,參數量從70億到650億不等。

論文中,僅用1/10參數的LLaMA(130億)在大多數基準測試下超越了GPT-3。

對于650億參數的LLaMA,則與DeepMind的Chinchilla(700億參數)和谷歌的PaLM(5400億參數)旗鼓相當。

雖然Meta聲稱LLaMA是開源的,但還需要研究人員申請并進行審核。

然而萬萬沒想到的是,剛發布沒幾天,LLaMA的模型文件就提前泄露了。

那么,問題來了,這究竟是故意的還是不小心的

LLaMA慘遭「開源」?

近日,國外論壇4chan上泄露了LLaMA的成品庫。

圖片

上周四,用戶llamanon在4chan的技術板上發帖,通過種子文件(torrent)發布7B和65B的LLaMA模型。

圖片

這個種子鏈接目前被合并到了LLaMA的GitHub頁面。

他還向項目提交了第二個拉請求,該請求提供了一個種子鏈接,鏈接到模型的另一組權重。 

目前該項目在GitHub已收獲8k星。

然而,泄密者最大的錯誤之一就是在泄密的模型中包含了他們的唯一標識符代碼。

這個代碼是專門用來追蹤泄密者的,使用戶llamanon的個人信息處于危險之中。

正所謂,LLaMA開源的不太體面,網友幫它體面了。

此外,4chan上的用戶還為那些希望在自己的工作站上部署該模型的人創建了一個方便的資源。

并提供了一個分布教程的指南,說明如何獲得模型,并將修改后的權重添加到其中,以便進行更有效的推理。

更重要的是,這個資源甚至提供了一種將LLaMA集成到 在線寫作平臺KoboldAI的方法。

圖片

對于這件事究竟是Meta有意為之,還是無意泄漏。網友們紛紛發表了自己的看法。

一位網友分析地頭頭是道,「也許這是Meta故意泄露的,以對抗 OpenAI。」

一些客戶認為這是一個更好的模型,它恰好擊中了他們以每年25萬美元的價格出售訪問權的商業計劃的核心。訪問他們的服務一個月可以購買一臺能夠運行這種泄露模型的機器。Meta削弱了一個潛在的新貴競爭對手,以保持當前的大型科技卡特爾穩定。也許這有點陰謀論,但我們生活在大科技和大陰謀的時代。

周一,Meta稱,盡管LLaMA已經泄露給未經授權的用戶,仍將繼續向認可的研究人員發布其人工智能工具。

有網友直接稱,自己下載了70億參數的LLaMA,盡管不知道如何運行,萬一以后用上就能拿來了。

圖片

LLaMA的泄露和開源是一個大事件:

Stable Diffusion開源了。8個月后,我們現在就可以讀懂別人的思想,解碼他們看到的一切。

隨著LLMs的開放,我們將得到一些真正的瘋狂的東西。

圖片

模型初步評測

LLaMA發布不久后,網友發現這個最小參數的模型也需要近30GB的GPU才能運行。

然而,通過比特和字節庫進行浮點優化,他們能夠讓模型在單個NVIDIA RTX 3060上運行。

此外,GitHub 上的一名研究人員甚至能夠在Ryzen 7900X CPU上運行LLM的7B 版本,每秒能推斷出幾個單詞。

那么LLaMA模型究竟怎樣?國外小哥便對它進行了評測。

圖片圖片


LLaMA在很多測試中表現出色。

在大規模多任務語言理解方面,即使相對較小的13B模型也與GPT-3水平相當,而GPT-3的規模是其13倍。

33B版本遠遠優于GPT-3, 65B則可與現有最強大的LLM模型--谷歌的540B參數的PaLM競爭。

圖片圖片

對于需要應用邏輯或計算進行處理的文本方面,LLaMA表現優秀,在定量推理方面可與PaLM相較,甚至比后者的代碼生成能力更好。

圖片

鑒于這些結果,LLaMA似乎是目前最先進的模型之一,而且,它足夠小,不需要多少資源就能運行。這使得LLaMA對于人們來說充滿誘惑,想讓人和它玩玩,見識一下它的本領。

解釋笑話

PaLM原始論文中展示了一個非常酷的用例:給定一個笑話,讓模型解釋它為什么好笑。這個任務需要把嘗試和邏輯結合起來,PaLM之前的所有模型都無法做到這一點。

將其中一些笑話交給LLaMA和ChatGPT來解釋,有些笑話語言模型能get到,比如Schimidhuber冗長無聊的發言。

圖片

但總體上LLaMA和ChatGPT都沒什么幽默感。

不過兩者應對聽不懂的笑話的策略不同,ChatGPT會產生「一堵文本墻」,希望其中至少有一些語句是正確答案,這種行為就像是不知道答案的學生,希望老師能從他們的一通亂說里找出答案。

零樣本歸類

這是一種很實用的功能,使得人們可以用LLM代替評分員來生成訓練集,然后在這些訓練集上訓練較小的可服務的模型。

一個更有挑戰性的任務是點擊廣告分類,由于連人類都不能就什么是點擊廣告達成一致,在提示中會向模型提供一些例子,所以事實上這是一個少樣本而非零樣本歸類。下面是LLaMA的提示。

測試中只有LLaMA-33B會設法遵循所要求格式給出答案,而且其預測是合理的,ChatGPT表現次之,能給出比較合理的答案,但時常不按規定的格式回答,較小的7B、13B模型則不太適合完成這項任務。

圖片

代碼生成

雖然法LLM在人文方面表現出色,但不擅長STEM科目,那么LLaMA在這方面的表現如何呢?

在提示中,給出搜索表的形式和希望達到的目的,要求模型給提供SQL查詢語句。

ChatGPT在這項任務中表現更好一點,但語言模型給出的結果總體都不太靠譜。

圖片

在與ChatGPT對比進行的各項測試中,LLaMA并沒有如想象中一樣大獲全勝。當然如果其間差距只是由RLHF(帶有人類反饋的強化學習)造成的,那小型模型的未來可能會更光明。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-03-06 09:44:06

模型開源

2023-03-28 15:40:00

開發開源

2023-04-10 16:15:16

模型開源

2024-05-27 09:01:42

Llama 3大型語言模型人工智能

2023-10-27 20:52:13

OpenAIJina AI開源

2023-02-06 18:18:24

微軟AI

2023-02-06 14:37:44

LeCun模型

2023-09-28 12:06:23

AI模型

2023-06-27 17:35:39

FastSAM模型SAM

2023-08-02 11:56:58

2023-07-04 12:57:57

多模態語言模型

2010-11-03 14:40:45

2024-02-22 17:19:26

谷歌模型PC

2024-04-19 09:26:43

人工智能Llama 3 模型Meta

2024-04-19 07:55:57

Llama 3模型人工智能開源

2021-04-09 16:25:00

GitHub代碼開發者

2024-07-11 16:33:50

2023-11-17 13:37:42

微軟開源模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产区一区二区三区 | 国产一区二区三区免费观看视频 | 国产成人久久精品 | 成人免费精品视频 | 99这里只有精品视频 | 日本中文在线 | 欧美精品免费观看二区 | 亚洲欧美日韩在线一区二区 | 欧美一级二级在线观看 | 一区二区三区不卡视频 | 欧美网站一区二区 | 嫩草视频入口 | 欧美日韩国产精品一区 | 国产二区三区 | 欧美不卡视频一区发布 | a欧美| 草比网站 | 亚洲午夜av久久乱码 | 久久精品在线播放 | 亚洲综合一区二区三区 | 综合第一页 | 国产精品美女久久久久久免费 | 视频在线观看一区二区 | 视频在线一区二区 | 在线免费观看a级片 | 自拍偷拍欧美 | av片在线观看网站 | 久久精品亚洲成在人线av网址 | 精品成人 | 理论片87福利理论电影 | av电影一区 | 一区二区三区亚洲 | 范冰冰一级做a爰片久久毛片 | 亚洲视频不卡 | 精品一区欧美 | 麻豆精品国产91久久久久久 | 欧美国产精品一区二区 | 久久国产精品99久久久久久丝袜 | 日韩欧美国产一区二区 | 国产一区二区久久 | 91中文字幕在线 |