英偉達H100殺瘋了:11分鐘訓完GPT-3,霸榜8項測試,集群性能逼近線性增長
11分鐘內訓練一遍GPT-3,8秒訓完BERT。
這就是英偉達給AI圈的一點“小小震撼”。
在最新MLPerf訓練基準測試中,英偉達H100集群,橫掃八項測試,全部創下新紀錄,并且在大語言模型任務中表現尤為突出!
圖片
在大語言模型任務中,H100集群的加速性能逼近線性增長。
即隨著集群處理器數量增加,加速效果也幾乎同比增加。
這意味著在集群內GPU之間的通信效率非常高。
圖片
除此之外,H100還完成了推薦算法、CV、醫學圖像識別以及語音識別等任務,是唯一一個參加8項測試的集群。
而在算力就是生產力的時代下,這波成績意味著什么,懂得都懂。
圖片
據悉,本次測試系統由英偉達和Inflection AI聯合開發,在云廠商CoreWeave上托管。
單節點性能增長明顯
這次MLPerf Training v3.0中增加了兩項新任務:
- 大語言模型(基于GPT-3)
- 推薦算法
這意味著測試任務包含了更大的數據集和更先進的模型。
圖片
如上刷新各項記錄的,是由3584塊H100組成的超大集群。
它的具體成績如下:
圖片
這是本輪測試中,英偉達拿出的最大集群。
實際上他們還提交了一個包含768塊H100的集群進行測試,并分別在云上和本地部署。
結果顯示二者性能幾乎完全相同。
更進一步還論證了隨著集群中顯卡數量的增加,其性能提升可以接近線性增長。
(NVIDIA Pre-Eos為本地部署,NVIDIA+CoreWeave為云上部署)
除此之外,這輪測試中英偉達還刷新了單節點加速記錄。
和6個月前MLPef Training v2.1的數據比較,單個DGX H100系統(8塊H100組成)在各項任務中平均提速17%。
和A100 Tensor Core GPU相比,最高能提速3.1倍(BERT任務)。
這些加速效果的實現,主要得益于兩個方面。
一方面是H100本身就足夠強悍。
H100基于最新Hopper架構,采用臺積電4nm工藝,集成800億個晶體管,較A100增加了260億個。
內核數量達到前所未有的16896個,是A100的2.5倍。
由于面向AI計算,H100中專門搭載了Transformer Engine,讓大模型訓練速度可直接×6。
另一方面則是依賴集群內的加速網絡。
這里使用的是英偉達Quantum-2 InfiniBand網絡,是該網絡架構的第七代。
官網介紹,加速網絡能夠提供軟件定義網絡、網絡內計算、性能隔離、優越加速引擎、RDMA和最快達400Gb/s的安全加速。
據悉,共有90個系統參與最新一輪測試,其中82個使用了英偉達的GPU,英特爾方面有7個系統參與。
英特爾的加速系統使用了64-96 Intel Xeon Platinum 8380處理器和256-389 Intel Habana Gaudi2加速器。
其高配系統完成LLM的訓練時間為311分鐘。
基于這次報告的測試結果,有分析師表示他感受到的最大震撼不是H100本身的性能,而是在云上訓練AI實現的卓越效果。
那么這次和英偉達合作的云廠商CoreWeave是誰?聯合開發系統Inflection AI又來者何人?
計算集群還會進一步擴大
首先來看CoreWeave。
它成立于2017年,是一家大型云廠商,號稱提供業內最快、最靈活的大規模GPU計算資源,提供渲染、機器學習等云上方案,速度比大型公共云快35倍,成本低80%。
而這家云廠商很受科技巨頭青睞,英偉達在此之前沒少cue過它。
5月,CoreWeave拿下2億美元融資,主要來自對沖基金Magnetar Capital,B輪總融資額達到4.21億美元。
6月,有消息稱微軟與CoreWeave簽署AI算力協議,用于計算基礎設施,未來數年內的投資金額可能數十億美元。
英偉達也向CoreWeave投資了1億美元,4月時它的估值為20億美元。
另一家AI初創公司Inflection AI由DeepMind創始成員穆斯塔法·蘇萊曼(Mustafa Suleyman)等人創立。
這家公司成立于22年3月,已拿下2.25億美元融資,估值超12億美元。
公司已經開發出了一個大語言模型Pi,正是在H100集群上訓練出來的。
據了解,Pi的定位是幫助人類更好和計算機交互,它能通過聊天內容來逐漸了解用戶,然后提供更加個性化的回答,類似于個人智能管家的感覺。
Inflection AI的最新Blog里表示,基于目前的合作,他們計劃在未來幾個月內進一步擴大底層計算基礎設施的規模。
參考鏈接:
[1]https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/?cnotallow=685ee2dc8db6455efed731baa85e2741
[2]https://developer.nvidia.com/blog/breaking-mlperf-training-records-with-nvidia-h100-gpus/
[3]https://www.forbes.com/sites/stevemcdowell/2023/06/27/nvidia-h100-dominates-new-mlperf-v30-benchmark-results/?sh=62b226c35e99