成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

2024屬于小模型,99%的用例可用SLM解決,大模型遇瓶頸?

人工智能
在人工智能“戰(zhàn)爭”中,科技巨頭們一直在競相構(gòu)建更大的語言模型,一個令人驚訝的新趨勢正在出現(xiàn):小就是新的大。

在人工智能“戰(zhàn)爭”中,科技巨頭們一直在競相構(gòu)建更大的語言模型,一個令人驚訝的新趨勢正在出現(xiàn):小就是新的大。

隨著大語言模型 (LLM) 的進展出現(xiàn)一些停滯跡象,研究人員和開發(fā)人員越來越多地將注意力轉(zhuǎn)向小語言模型 (SLM)。這些緊湊、高效且適應(yīng)性強的人工智能模型正在挑戰(zhàn)“越大越好”的觀念,有望改變我們進行人工智能開發(fā)的方式。 

LLM 是否開始趨于穩(wěn)定? 

Vellum 和 HuggingFace 最近發(fā)布的績效比較表明,LLM 之間的績效差距正在迅速縮小。這種趨勢在多項選擇題、推理和數(shù)學問題等特定任務(wù)中尤其明顯,其中頂級模型之間的性能差異很小。 

LLM 排行榜。(來源:vellum)LLM 排行榜。(來源:vellum)

例如,在選擇題中,Claude 3 Opus、GPT-4 和 Gemini Ultra 的得分都在 83% 以上,而在推理任務(wù)中,Claude 3 Opus、GPT-4 和 Gemini 1.5 Pro 的準確率都超過 92%。

有趣的是,甚至像 Mixtral 8x7B 和 Llama 2 – 70B 這樣的較小模型在某些領(lǐng)域(例如推理和多項選擇題)也顯示出了有希望的結(jié)果,它們在這些領(lǐng)域的表現(xiàn)優(yōu)于一些較大的模型。這表明模型的大小可能不是性能的唯一決定因素,架構(gòu)、訓練數(shù)據(jù)和微調(diào)技術(shù)等其他方面可能發(fā)揮重要作用。

Uber 人工智能前負責人、《重啟人工智能》(Rebooting AI)一書的作者加里?馬庫斯(Gary Marcus)表示:“如果你從經(jīng)驗上看,最近發(fā)表的十幾篇文章都與 GPT-4處于同一領(lǐng)域。”這本書講述了如何構(gòu)建值得信賴的人工智能。

“其中一些比 GPT-4 好一點,但沒有質(zhì)的飛躍。我想每個人都會說 GPT-4 比 GPT-3.5 領(lǐng)先了一大步。一年多來沒有發(fā)生任何[量子躍遷]?!瘪R庫斯說。

隨著性能差距不斷縮小,越來越多的模型展現(xiàn)出有競爭力的結(jié)果,這就提出了 LLM 是否確實開始趨于穩(wěn)定的問題。如果這種趨勢持續(xù)下去,它可能會對語言模型的未來開發(fā)和部署產(chǎn)生重大影響,可能會將重點從簡單地增加模型大小轉(zhuǎn)移到探索更高效和專業(yè)的架構(gòu)。

LLM方法的缺點

LLM 雖然無可否認地強大,但也有明顯的缺點。首先,訓練LLM需要大量的數(shù)據(jù),需要數(shù)十億甚至數(shù)萬億的參數(shù)。這使得訓練過程極其耗費資源,訓練和運行 LLM 所需的計算能力和能源消耗是驚人的。這導(dǎo)致成本高昂,使得較小的組織或個人很難參與核心的LLM開發(fā)。在去年 MIT 的一次活動上,OpenAI 首席執(zhí)行官 Sam Altman 表示,訓練 GPT-4 的成本至少為 1 億美元。

與 LLM 合作所需的工具和技術(shù)的復(fù)雜性也為開發(fā)人員帶來了陡峭的學習曲線,進一步限制了可訪問性。對于開發(fā)人員來說,從培訓到構(gòu)建和部署模型的周期時間很長,這會減慢開發(fā)和實驗的速度。

劍橋大學最近發(fā)表的一篇論文顯示,公司可以花費 90 天或更長時間來部署單個機器學習 (ML) 模型。

論文鏈接:https://doi.org/10.1145/3533378

LLM 的另一個重要問題是他們?nèi)菀桩a(chǎn)生幻覺——產(chǎn)生看似合理但實際上并不真實的輸出。這源于 LLM 的訓練方式是根據(jù)訓練數(shù)據(jù)中的模式預(yù)測下一個最可能的單詞,而不是真正理解信息。因此,LLM 可以自信地提出虛假陳述、編造事實或以無意義的方式組合不相關(guān)的概念。檢測和減輕這些幻覺是開發(fā)可靠且值得信賴的語言模型的持續(xù)挑戰(zhàn)。

“如果你用它來解決高風險問題,你不想侮辱你的客戶,或者得到不良的醫(yī)療信息,或者用它來駕駛汽車并在那里冒險。這仍然是一個問題,”馬庫斯警告說。

LLM 的規(guī)模和黑盒性質(zhì)也使它們難以解釋和調(diào)試,這對于建立對模型輸出的信任至關(guān)重要。訓練數(shù)據(jù)和算法中的偏差可能會導(dǎo)致不公平、不準確甚至有害的輸出。

正如谷歌 Gemini 所見,使 LLM “安全”和可靠的技術(shù)也會降低其有效性。此外,LLM 的集中性質(zhì)引起了人們對權(quán)力和控制權(quán)集中在少數(shù)大型科技公司手中的擔憂。

輸入小語言模型 (SLM)

SLM 是 LLM 的更精簡版本,參數(shù)更少,設(shè)計更簡單。他們需要更少的數(shù)據(jù)和訓練時間——幾分鐘或幾個小時,而 LLM 需要幾天的時間。這使得 SLM 在現(xiàn)場或較小的設(shè)備上實施起來更加高效和直接。

SLM 的主要優(yōu)勢之一是它們適合特定應(yīng)用。由于它們的范圍更集中并且需要的數(shù)據(jù)更少,因此與大型通用模型相比,它們可以更輕松地針對特定領(lǐng)域或任務(wù)進行微調(diào)。這種定制使公司能夠創(chuàng)建能夠非常有效地滿足其特定需求的 SLM,例如情緒分析、命名實體識別或特定領(lǐng)域的問答。與使用更通用的模型相比,SLM 的專業(yè)性質(zhì)可以提高這些目標應(yīng)用程序的性能和效率。

與 LLM 相比,SLM 也不太容易在其特定領(lǐng)域內(nèi)出現(xiàn)未被發(fā)現(xiàn)的幻覺。SLM 通常在特定于其預(yù)期領(lǐng)域或應(yīng)用程序的更窄且更有針對性的數(shù)據(jù)集上進行訓練,這有助于模型學習與其任務(wù)最相關(guān)的模式、詞匯和信息。這種關(guān)注減少了產(chǎn)生不相關(guān)、意外或不一致輸出的可能性。憑借更少的參數(shù)和更精簡的架構(gòu),SLM 不太容易捕獲和放大訓練數(shù)據(jù)中的噪聲或錯誤。

人工智能初創(chuàng)公司 HuggingFace 的首席執(zhí)行官 Clem Delangue 表示,高達 99% 的用例可以使用 SLM 來解決,并預(yù)測 2024 年將是 SLM 年。

HuggingFace 的平臺使開發(fā)人員能夠構(gòu)建、訓練和部署機器學習模型,今年早些時候宣布與谷歌建立戰(zhàn)略合作伙伴關(guān)系。兩家公司隨后將 HuggingFace 集成到 Google 的 Vertex AI 中,使開發(fā)人員能夠通過 Google Vertex Model Garden 快速部署數(shù)千個模型。

谷歌 Gemma 有些愛

在最初將 LLM 方面的優(yōu)勢讓給 OpenAI 后,谷歌正在積極尋求 SLM 機會。早在二月份,谷歌就推出了 Gemma,這是一系列新的小語言模型,旨在提高效率和用戶友好性。與其他 SLM 一樣,Gemma 模型可以在各種日常設(shè)備上運行,例如智能手機、平板電腦或筆記本電腦,無需特殊硬件或廣泛優(yōu)化。

自 Gemma 發(fā)布以來,經(jīng)過訓練的模型上個月在 HuggingFace 上的下載量已超過 400,000 次,并且已經(jīng)出現(xiàn)了一些令人興奮的項目。

例如,Cerule 是一個強大的圖像和語言模型,它將 Gemma 2B 與 Google 的 SigLIP 相結(jié)合,并在海量圖像和文本數(shù)據(jù)集上進行了訓練。Cerule 利用高效的數(shù)據(jù)選擇技術(shù),這表明它無需大量數(shù)據(jù)或計算即可實現(xiàn)高性能。這意味著 Cerule 可能非常適合新興的邊緣計算用例。

另一個例子是 CodeGemma,它是 Gemma 的專門版本,專注于編碼和數(shù)學推理。CodeGemma 提供了針對各種編碼相關(guān)活動量身定制的三種不同模型,使開發(fā)人員更容易使用和高效地使用高級編碼工具。

小語言模型的變革潛力

隨著人工智能社區(qū)不斷探索小語言模型的潛力,更快的開發(fā)周期、更高的效率以及根據(jù)特定需求定制模型的能力的優(yōu)勢變得越來越明顯。SLM 準備通過提供經(jīng)濟高效且有針對性的解決方案,實現(xiàn)人工智能訪問的民主化并推動跨行業(yè)創(chuàng)新。

SLM 在邊緣的部署為金融、娛樂、汽車系統(tǒng)、教育、電子商務(wù)和醫(yī)療保健等各個領(lǐng)域的實時、個性化和安全應(yīng)用開辟了新的可能性。

通過在本地處理數(shù)據(jù)并減少對云基礎(chǔ)設(shè)施的依賴,使用 SLM 的邊緣計算可實現(xiàn)更快的響應(yīng)時間、改善數(shù)據(jù)隱私并增強用戶體驗。這種去中心化的人工智能方法有可能改變企業(yè)和消費者與技術(shù)互動的方式,在現(xiàn)實世界中創(chuàng)造更加個性化和直觀的體驗。

由于 LLM 面臨與計算資源相關(guān)的挑戰(zhàn)并可能達到性能瓶頸,SLM 的興起有望使人工智能生態(tài)系統(tǒng)以驚人的速度發(fā)展。

責任編輯:華軒 來源: AI超數(shù)據(jù)
相關(guān)推薦

2024-12-02 01:18:54

2024-10-31 15:00:00

AI模型

2024-11-25 11:00:00

模型訓練

2023-10-28 13:29:27

2024-03-06 09:00:00

大語言模型人工智能

2010-06-17 13:32:39

UML用例模型

2023-11-30 14:38:56

2010-06-17 12:48:08

UML用例模型

2025-05-15 08:20:01

2024-07-19 09:26:12

2024-10-17 16:54:47

2025-04-29 08:09:39

2024-05-16 11:34:55

2023-12-13 12:55:39

模型數(shù)據(jù)

2024-06-03 10:56:53

2023-09-25 07:31:19

算力AI框架

2023-11-03 07:47:12

機器資源大模型:

2022-06-02 10:29:23

神經(jīng)網(wǎng)絡(luò)AI計算機
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产精品久久久久久久久久免费 | 国产欧美日韩在线 | 精品免费国产 | julia中文字幕久久一区二区 | 电影在线 | 色视频在线免费观看 | 欧美中文一区 | 国产精品一区2区 | 宅男噜噜噜66一区二区 | 国产精品99久久久久 | 欧美a级成人淫片免费看 | 免费一级做a爰片久久毛片潮喷 | 精品欧美一区二区三区久久久小说 | 国产午夜精品久久 | 欧美午夜一区二区三区免费大片 | 成人午夜在线 | 日本不卡一区二区三区在线观看 | 欧美精品一区在线 | 国产精品欧美一区二区三区 | 国产免费观看一区 | 91网在线观看 | 亚洲国产精品第一区二区 | 日本在线视频不卡 | 亚洲国产在 | 精品国产一区二区在线 | 亚洲欧美精品在线观看 | 欧美性另类 | 一区二区国产精品 | 中文字幕国产视频 | 国产精品成人久久久久a级 久久蜜桃av一区二区天堂 | 免费看片在线播放 | 蜜月aⅴ国产精品 | 97色在线观看免费视频 | 欧美成人aaa级毛片在线视频 | 国产在线一区二区三区 | 亚洲国产精品va在线看黑人 | 国产伦精品一区二区三毛 | 国内精品久久久久 | 亚洲国产精品人人爽夜夜爽 | 91日韩在线| 青青久在线视频 |