超5800億美元!微軟谷歌神仙打架,讓英偉達市值飆升,約為5個英特爾
ChatGPT在手,有問必答。
你可知,與它每次對話的計算成本簡直讓人淚目。
此前,分析師稱ChatGPT回復一次,需要2美分。
要知道,人工智能聊天機器人所需的算力背后燒的可是GPU。
這恰恰讓像英偉達這樣的芯片公司豪賺了一把。
2月23日,英偉達股價飆升,使其市值增加了700多億美元,總市值超5800億美元,大約是英特爾的5倍。
在英偉達之外,AMD可以稱得上是圖形處理器行業的第二大廠商,市場份額約為20%。
而英特爾持有不到1%的市場份額。
ChatGPT在跑,英偉達在賺
隨著ChatGPT解鎖潛在的應用案例,這可能迎來人工智能應用的另一個拐點。
為什么這么說?
谷歌母公司Alphabet董事長John Hennessy在接受路透的采訪時表示,大型語言模型等人工智能的對話成本可能是傳統搜索引擎的10倍以上。
Morgan Stanley分析表示,谷歌去年共計3.3萬億次搜索,每次搜索的成本僅為0.2美分。
據估計,若將谷歌旗下聊天機器人Bard引入搜索引擎,并用其處理谷歌一半的搜索和提問,按照每次答案50詞計算,公司在2024年的成本可能會增加60億美元。
同樣,專注于芯片技術的咨詢公司SemiAnalysis稱,受到谷歌內部芯片Tensor Processing Units等的影響,將聊天機器人添加至搜索引擎中,可能會讓谷歌額外花費30億美元。
他認為谷歌必須降低此類人工智能的運營成本,但這一過程并不容易,最壞的情況也得需要幾年時間。
正是如此,通過AI語言模型進行搜索比傳統搜索需要消耗更多的算力。
分析師表示,未來幾年的額外成本可能高達數十億美元。
Gartner預計,到2026年,用于數據中心的GPU等專業芯片的份額預計將從2020年的不到3%上升15%以上。
雖然很難確切地指出如今人工智能在英偉達收入中所占的比例有多大,但隨著大型科技公司競相開發類似的AI應用程序,人工智能有成倍增長的潛力。
周三,英偉達還宣布了人工智能云服務,并致力于甲骨文、微軟和谷歌合作,為其提供使用Nvidia GTX,通過簡單的瀏覽器訪問進行人工智能處理的能力。
這個新平臺將由其他云服務商提供,將幫助那些不具備構建自己的基礎設施的技術公司。
黃仁勛稱,「人們對ChatGPT的熱情讓商界領袖們看到了人工智能的力量。但是現在,它主要是一個通用軟件。其真正價值的實現,還需要根據公司自身的需求量身定做,這樣就可以改進自家的服務和產品。」
英偉達奪GPU市場霸主
New Street Research稱,英偉達占據了95%圖形處理器的市場份額。
在費城證券交易所半導體指數中,英偉達股今年已經上漲42%,表現最好。
投資者紛紛投向英偉達,押注在對ChatGPT等人工智能系統的需求將推高該公司產品的訂單,使其再次成為全球市值最高的芯片制造商。
一直以來,不管是成為頂流的ChatGPT,還是Bard、Stable Diffusion等模型,背后都是由一個大約價值1萬美元的芯片Nvidia A100提供算力。
英偉達A100能夠同時進行許多簡單的計算,對訓練和使用神經網絡模型非常重要。
A100背后的技術最初用在游戲中渲染復雜的3D圖形。而現在,其目標是處理機器學習任務和在數據中心運行。
投資者Nathan Benaich表示,A100目前已成為人工智能專業人士的「主力」。他的報告還列出了使用 A100超級計算機部分公司的名單。
機器學習任務可能會占用整臺計算機的處理能力,有時會持續數小時或數天。
這意味著,那些擁有一款暢銷AI產品的公司往往需要購買更多的GPU來應對訪問高峰期,或改進其模型。
除了卡上可以插入現有服務器的單個A100之外,許多數據中心還使用一個包含8個A100圖形處理器的系統。
這個系統,便是Nvidia DGX A100,單套系統售價高達20萬美元。
英偉達周三表示,將直接出售DGX系統的云訪問權限,這可能會降低研究人員的入門成本。
那么運行新版必應需要付出怎樣的成本?
New Street Research的一項評估發現,必應搜索中基于OpenAI的ChatGPT模型可能需要8個GPU才能在不到一秒鐘的時間內給出一個問題的答案。
按照這個速度,微軟需要超過2萬臺8個GPU服務器才能將這個模型部署到每個人手中。
那么微軟可能會花費40億美元的基礎設施開支。
這僅是微軟,如果想要達到谷歌每日查詢規模,即每天提供80億-90億個查詢,就需要花費800億美元。
再比如,最新版本的Stable Diffusion,在256個A100圖形處理器,或32臺DGX A100進行計算200,000小時。
Stability AI的首席執行官Mostaque表示,按照市場價格計算,僅訓練該模型就需要花費60萬美元。與競爭對手相比,這個價格非常便宜。這還不包括推斷或部署模型的成本。
黃仁勛在接受采訪時表示,
就這類模型所需的計算量而言,Stability AI的產品實際上并不昂貴。
我們采用了原本需要10億美元才能運行CPU的數據中心,然后將其縮小為1億美元的數據中心。現在,這1億美元數據中心放在云端由100家公司共同分擔,都不算什么。
英偉達GPU可以讓初創企業以較成本訓練模型。現在你可以構建一個大型語言模型,比如GPT,大概需要1000萬到2000萬美元。這真的,真的很實惠。
2022人工智能現狀報告稱,截至2022年12月,超過2.1萬份開源AI論文使用了英偉達芯片。
國家人工智能計算指數 (State of AI Compute Index) 中的大多數研究人員使用的是2017年推出的英偉達芯片V100,但A100在2022年快速增長,成為使用頻率排在第三的芯片。
A100最激烈的競爭可能是它的繼任者H100,2022年推出并已開始量產。事實上,英偉達周三表示,在截至1月份的季度,H100的收入超過了A100。
目前來看,英偉達正在乘坐著AI的快車向「錢」沖刺了。