成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大型語言模型中最大的瓶頸:速率限制

譯文 精選
人工智能
生態(tài)系統(tǒng)在渴望利用LLM力量的公司的壓力下變得緊張。那些希望在人工智能方面開辟新天地的人可能需要等到GPU供應在未來漫長的道路上進一步開放。具有諷刺意味的是,這些限制可能有助于緩和圍繞生成性人工智能的一些泡沫炒作,讓行業(yè)有時間適應積極的模式,高效、經濟地使用它。

作者 | Matt Asay

策劃 | 言征 

出品 | 51CTO技術棧(微信號:blog51cto)

速率限制意味著每個人都在等待更好的計算資源或不同的生成人工智能模型。

大型語言模型(LLM),如OpenAI的GPT-4和Anthropic的Claude 2,憑借其生成類人文本的能力,吸引了公眾的想象力。企業(yè)也同樣熱情高漲,許多企業(yè)正在探索如何利用LLM來改進產品和服務。然而,一個主要瓶頸嚴重制約了在生產環(huán)境中采用最先進的LLM:速率限制。有一些方法可以通過這些費率限制收費站,但如果沒有計算資源的改進,真正的進展可能不會到來。

1、為瓶頸付出的代價

允許訪問OpenAI和Anthropic等公司模型的公共LLM API對每分鐘可處理的令牌(文本單位)數(shù)量、每分鐘的請求數(shù)量和每天的請求數(shù)量施加了嚴格限制。

例如,這句話將消耗九個標記。目前,對OpenAI GPT-4的API調用限制為每分鐘三個請求(RPM)、每天200個請求和每分鐘最多10000個令牌(TPM)。

最高級別允許10000 RPM和300000 TPM的限制。對于每分鐘需要處理數(shù)百萬個代幣的大型生產應用程序,這些速率限制使得使用最先進的LLM基本上不可行。請求堆積起來,需要幾分鐘或幾個小時,無法進行任何實時處理。

大多數(shù)企業(yè)仍在努力在規(guī)模上安全有效地采用LLM。但是,即使他們在應對數(shù)據(jù)敏感度和內部流程方面的挑戰(zhàn)時,速率限制也是一個頑固的障礙。當產品使用量和數(shù)據(jù)積累時,圍繞LLM構建產品的初創(chuàng)企業(yè)很快就會達到峰值,但擁有龐大用戶基礎的大型企業(yè)受到的限制最大。如果沒有特殊訪問權限,他們的應用程序將根本無法工作。

怎么辦?

2、繞過速率限制

一種方法是完全跳過速率限制技術。例如,有一些特定用途的生成人工智能模型沒有LLM瓶頸。Diffblue是一家總部位于英國牛津的初創(chuàng)公司,它依賴于不受費率限制的強化學習技術。它做一件事非常好,非常高效,可以覆蓋數(shù)百萬行代碼。

它以開發(fā)人員250倍的速度自主創(chuàng)建Java單元測試,編譯速度快10倍。Diffblue Cover編寫的單元測試能夠快速理解復雜的應用程序,使企業(yè)和初創(chuàng)公司都能滿懷信心地進行創(chuàng)新,例如,這是將傳統(tǒng)應用程序轉移到云的理想選擇。它還可以自主編寫新代碼,改進現(xiàn)有代碼,加速CI/CD管道,并在不需要手動審查的情況下深入了解與更改相關的風險。還不錯。

當然,有些公司不得不依賴LLM。他們有什么選擇?

3、請多加計算

一種選擇是簡單地要求提高公司的利率限制。到目前為止,這還可以,但潛在的問題是,許多LLM提供商實際上沒有額外的能力提供服務。這就是問題的癥結所在。GPU的可用性取決于從臺積電等鑄造廠開始的總硅片數(shù)量。占主導地位的GPU制造商英偉達無法采購足夠的芯片來滿足人工智能工作負載驅動的爆炸性需求,大規(guī)模推理需要數(shù)千個GPU聚集在一起。

增加GPU供應的最直接方法是建造新的半導體制造廠,即晶圓廠。但一個新的晶圓廠成本高達200億美元,需要數(shù)年時間才能建成。英特爾、三星鑄造、臺積電和德州儀器等主要芯片制造商正在美國建造新的半導體生產設施。總有一天,那會很棒。現(xiàn)在,每個人都必須等待。

因此,利用GPT-4的實際生產部署很少。這樣做的范圍不大,將LLM用于輔助功能,而不是作為核心產品組件。大多數(shù)公司仍在評估試點和概念驗證。在考慮費率限制之前,將LLM集成到企業(yè)工作流程中所需的提升本身就相當大。

4、尋找答案

限制GPT-4吞吐量的GPU限制促使許多公司使用其他生成人工智能模型。例如,AWS有自己的專門芯片用于訓練和推理(訓練后運行模型),使其客戶具有更大的靈活性。重要的是,并不是每個問題都需要最強大、最昂貴的計算資源。AWS提供了一系列更便宜、更容易微調的型號,如Titan Light。

一些公司正在探索其他選擇,比如微調開源模型,比如Meta的Llama 2。對于涉及檢索增強生成(RAG)的簡單用例,需要將上下文附加到提示并生成響應,功能較弱的模型就足夠了。

跨多個具有更高限制的舊LLM并行請求、數(shù)據(jù)分塊和模型提取等技術也會有所幫助。有幾種技術可以使推理更便宜、更快。量化降低了模型中權重的精度,這些權重通常是32位浮點數(shù)字。這不是一種新方法。例如,谷歌的推理硬件張量處理單元(TPU)僅適用于權重已量化為八位整數(shù)的模型。該模型失去了一些準確性,但變得更小,運行速度更快。一種名為“稀疏模型”的新流行技術可以降低訓練和推理的成本,而且它比蒸餾技術勞動密集度更低。您可以將LLM視為許多較小語言模型的集合。例如,當你用法語問GPT-4一個問題時,只需要使用模型的法語處理部分,這就是稀疏模型所利用的。

你可以進行稀疏訓練,只需要用法語訓練模型的一個子集,也可以進行稀疏推理,只運行模型的法語部分。當與量化一起使用時,這可以是一種從LLM中提取較小專用模型的方法,LLM可以在CPU而不是GPU上運行(盡管精度損失很小)。問題是什么?GPT-4之所以出名,是因為它是一個通用的文本生成器,而不是一個更窄、更具體的模型。

在硬件方面,專門用于人工智能工作負載的新處理器架構有望提高效率。Cerebras已經構建了一個為機器學習優(yōu)化的巨大晶圓級引擎,Manticore正在重新利用制造商丟棄的“被拒絕的”GPU硅來提供可用的芯片。最終,最大的收益將來自于需要更少計算的下一代LLM。結合優(yōu)化的硬件,未來的LLM可以突破今天的速率限制障礙。

目前,生態(tài)系統(tǒng)在渴望利用LLM力量的公司的壓力下變得緊張。那些希望在人工智能方面開辟新天地的人可能需要等到GPU供應在未來漫長的道路上進一步開放。具有諷刺意味的是,這些限制可能有助于緩和圍繞生成性人工智能的一些泡沫炒作,讓行業(yè)有時間適應積極的模式,高效、經濟地使用它。

參考鏈接:https://www.infoworld.com/article/3712300/the-biggest-bottleneck-in-a-large-language-model.html

責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2024-03-06 09:00:00

大語言模型人工智能

2024-04-16 16:14:01

人工智能LLMRAG

2023-06-19 16:05:22

大型語言模型人工智能

2024-08-13 08:09:34

2024-12-12 09:11:58

2025-06-13 01:00:00

人工智能大型推理模型推理模型

2023-11-15 17:56:23

2018-04-13 08:44:40

存儲大型網站

2023-06-09 08:00:00

QLoRa語言模型微調

2023-07-10 08:00:00

2024-11-21 08:22:45

2021-10-25 16:25:07

模型人工智能計算

2024-05-16 16:37:33

大型語言模型人工智能

2024-12-23 08:03:13

2023-10-08 15:54:12

2024-06-13 10:52:43

2023-11-06 08:38:50

LLM語言模型ChatGPT

2024-09-23 08:03:59

2023-05-09 07:09:02

2023-06-05 07:10:00

編碼人工工具
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美在线综合 | 午夜影院在线观看视频 | 91佛爷在线观看 | 国产午夜在线 | 欧美日韩在线免费观看 | 99精品久久久久久中文字幕 | 久草青青草 | 在线第一页 | 成人做爰www免费看视频网站 | 婷婷五月色综合 | 色综合视频 | 91精品国产综合久久精品 | 97国产爽爽爽久久久 | 免费观看的av毛片的网站 | 国产亚洲成av人片在线观看桃 | 91在线精品播放 | 国产日日操 | 久久高清亚洲 | 亚洲成人综合社区 | 亚洲成人久久久 | 亚洲国产成人av好男人在线观看 | 在线欧美一区二区 | 国产亚洲精品精品国产亚洲综合 | 国产欧美一区二区三区久久手机版 | 欧美激情在线一区二区三区 | 在线视频亚洲 | 一区二区三区在线观看视频 | 亚洲人人舔人人 | 51ⅴ精品国产91久久久久久 | 黄色大片免费播放 | 九九色九九| 亚洲精品专区 | 国产女人叫床高潮大片免费 | 日本在线一区二区三区 | 北条麻妃一区二区三区在线观看 | 日韩精品久久久久久 | 国产一区91精品张津瑜 | 国产一区二区精品在线 | 女同videos另类 | 久久精品一区 | 日韩欧美成人精品 |