成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

ChatGPT服務器,深度拆解

新聞 服務器
AI大模型訓練需求火熱,智能算力規(guī)模增長有望帶動AI服務器放量。

ChatGPT發(fā)布之后,引發(fā)了全球范圍的關注和討論,國內(nèi)各大廠商相繼宣布GPT模型開發(fā)計劃。據(jù)各公司官網(wǎng),2023年2月7日,百度宣布將推出ChatGPT類似產(chǎn)品“文心一言”,預計今年3月展開內(nèi)測;2月8日阿里宣布阿里版ChatGPT正在研發(fā)中,目前處于內(nèi)測階段;2月9日,字節(jié)跳動旗下AI Lab宣布正在開展ChatGPT和AIGC相關研發(fā),未來將為PICO提供技術支持;2月10日,京東旗下言犀人工智能平臺推出產(chǎn)業(yè)版ChatGPT—“ ChatJD”。

AI模型對算力的需求主要體現(xiàn)在訓練和推理兩個層面。當前主流的人工智能算法通??煞譃椤坝柧殹焙汀巴评怼眱蓚€階段。據(jù)IDC數(shù)據(jù),2021年中國人工智能服務器工作負載中,57.6%的負載用于推理,42.4%用于模型訓練。據(jù)IDC預計,到2026年AI推理的負載比例將進一步提升至62.2%。具體來看:

1)訓練階段:基于充裕的數(shù)據(jù)來調(diào)整和優(yōu)化人工智能模型的參數(shù),使模型的準確度達到預期。對于圖像識別、語音識別與自然語言處理等領域的復雜問題,為了獲得更準確的人工智能模型,訓練階段常常需要處理大量數(shù)據(jù)集、做反復的迭代計算,耗費巨大的運算量。

2)推理階段:訓練階段結束以后,人工智能模型已經(jīng)建立完畢,已可用于推理或預測待處理輸入數(shù)據(jù)對應的輸出(例如給定一張圖片,識別該圖片中的物體),此過程被稱為推理階段。推理階段對單個任務的計算能力要求不如訓練那么大,但是由于訓練出來的模型會多次用于推理,因此推理運算的總計算量也相當可觀。

圖片

ChatGPT算力需求場景包括預訓練、Finetune及日常運營。從ChatGPT實際應用情況來看,從訓練+推理的框架出發(fā),我們可以將ChatGPT的算力需求按場景進一步拆分為預訓練、Finetune及日常運營三個部分:

1)預訓練:主要通過大量無標注的純文本數(shù)據(jù),訓練模型基礎語言能力,得到類似GPT-1/2/3這樣的基礎大模型;

2)Finetune:在完成預訓練的大模型基礎上,進行監(jiān)督學習、強化學習、遷移學習等二次或多次訓練,實現(xiàn)對模型參數(shù)量的優(yōu)化調(diào)整;

3)日常運營:基于用戶輸入信息,加載模型參數(shù)進行推理計算,并實現(xiàn)最終結果的反饋輸出。

圖片

預訓練階段:單次算力需求取決于模型參數(shù)量,最高可達3640 PFlop/s-day

ChatGPT基于Transformer架構,進行語言模型預訓練。GPT模型之所以能夠高效地完成大規(guī)模參數(shù)計算,我們認為離不開Transformer架構的加持。拆解Transformer架構來看,核心是由編碼模塊和解碼模塊構成,而GPT模型只用到了解碼模塊。拆解模塊來看,大致分為三層:前饋神經(jīng)網(wǎng)絡層、編碼/解碼自注意力機制層(Self-Attention)、自注意力機制掩碼層,其中:

1)注意力機制層主要作用在于計算某個單詞對于全部單詞的權重(即Attention),從而能夠更好地去學習所有輸入之間的關系,實現(xiàn)對文本內(nèi)在關系的理解和更大規(guī)模的并行計算;

2)前饋神經(jīng)網(wǎng)絡提供了對數(shù)據(jù)信息的高效存儲及檢索;3)掩碼層在這一過程中幫助模型屏蔽位于計算位置右側尚未出現(xiàn)的單詞。因此,相較于前代深度學習架構RNN,Transformer架構可以實現(xiàn)更大規(guī)模的并行計算,大大提升了計算效率。

單一大模型路線下,需要完成大規(guī)模參數(shù)計算。以GPT-3模型為例,隨著模型朝更大體量的方向演進,參數(shù)量從GPT-3 Small的1.25億個增長到GPT-3 175B的1746億個,一次訓練所需的計算量從2.6PFlop/s-day增至3640PFlop/s-day。與此同時,在不同學習樣本(包括小樣本、單一樣本、零樣本)條件下的模型,隨著參數(shù)量的提升均實現(xiàn)不同幅度的上下文學習能力改善,外在表現(xiàn)為語言準確率的提升。我們認為,隨著大模型訓練表現(xiàn)出越來越強大的實戰(zhàn)能力,未來或將成為NLP訓練的主流選擇。

圖片

推理階段:預計單月運營算力需求約7034.7 PFlop/s-day

ChatGPT近一月訪問量為8.89億次。據(jù)SimilarWeb數(shù)據(jù),2023年1月以來ChatGPT官網(wǎng)日訪問量持續(xù)攀升,從1月初的日均千萬次級別,到1月底日均兩千萬次,再到2月中旬的三千萬次級別,隨著軟件效果的廣泛傳播,用戶訪問次數(shù)愈發(fā)頻繁。加總近一月(2023/1/17-2023/2/17)ChatGPT官網(wǎng)訪問量數(shù)據(jù)來看,可得ChatGPT月訪問量為8.89億次。

圖片

預計日常運營單月所需算力約7034.7 PFlop/s-day。日常運營過程中,用戶交互帶來的數(shù)據(jù)處理需求同樣也是一筆不小的算力開支。據(jù)前文,近一個月(2023/1/17-2023/2/17)ChatGPT官網(wǎng)總訪問量為8.89億次。據(jù)Fortune雜志,每次用戶與ChatGPT互動,產(chǎn)生的算力云服務成本約0.01美元?;诖?,我們測算得2023年1月OpenAI為ChatGPT支付的運營算力成本約889萬美元。此外,據(jù)Lambda,使用訓練一次1746億參數(shù)的GPT-3模型所需花費的算力成本超過460萬美元;據(jù)OpenAI,訓練一次1746億參數(shù)的GPT-3模型需要的算力約為3640 PFlop/s-day。我們假設單位算力成本固定,測算得ChatGPT單月運營所需算力約7034.7PFlop/s-day。

圖片

Finetune階段:預計ChatGPT單月Finetune的算力需求至少為1350.4PFlop/s-day

模型迭代帶來Finetune算力需求。從模型迭代的角度來看,ChatGPT模型并不是靜態(tài)的,而是需要不斷進行Finetune模型調(diào)優(yōu),以確保模型處于最佳應用狀態(tài)。這一過程中,一方面是需要開發(fā)者對模型參數(shù)進行調(diào)整,確保輸出內(nèi)容不是有害和失真的;另一方面,需要基于用戶反饋和PPO策略,對模型進行大規(guī)?;蛐∫?guī)模的迭代訓練。因此,模型調(diào)優(yōu)同樣會為OpenAI帶來算力成本,具體算力需求和成本金額取決于模型的迭代速度。

預計ChatGPT單月Finetune算力需求至少為1350.4PFlop/s-day。據(jù)IDC預計,2022年中國人工智能服務器負載中,推理和訓練的比例分別為58.5%、41.5%。我們假設,ChatGPT對推理和訓練的算力需求分布與之保持一致,且已知單月運營需要算力7034.7 PFlop/s-day、一次預訓練需要算力3640 PFlop/s-day。基于此,我們進一步假設:1)考慮到AI大模型預訓練主要通過巨量數(shù)據(jù)喂養(yǎng)完成,模型底層架構變化頻率不高,故我們假設每月最多進行一次預訓練;2)人類反饋機制下,模型需要不斷獲得人類指導以實現(xiàn)參數(shù)調(diào)優(yōu),以月為單位可能多次進行。由此我們計算得ChatGPT單月Finetune算力成本至少為1350.4PFlop/s-day。

1、ChatGPT需要的服務器:AI訓練型服務器+AI推理型服務器

隨著計算場景擴展,算力硬件也在發(fā)生變化。在傳統(tǒng)軟件架構下,主要的模式都是CS模式,服務端大多是單機處理幾千個輕量請求。而在邊緣計算場景下,需要數(shù)萬臺服務器處理上億個重負載請求。邊緣計算機本質(zhì)上是用CES模式取代CS模式,當前的互聯(lián)網(wǎng)IT架構已經(jīng)從CS模式,逐步向CDN服務為核心的CES模式轉變。但當前的CDN模式比較大的局限性在于缺乏靈活性,不能解決邊緣上非結構化數(shù)據(jù)存儲和處理的需求,引入Edge端(邊緣端)就是為了解決CS模式下無法處理的業(yè)務。而在AI訓練場景下,計算量及數(shù)據(jù)類型的變化導致C-E-S又無法滿足集中大算力需求,計算架構回歸C-S,并向高效率并行計算演變。

圖片

服務器作為算力硬件核心,面向不同計算場景分化演進。我們認為,計算架構的變化是推動服務器技術演進的關鍵變量。從計算場景來看,隨著計算架構從PC到云計算,到邊緣計算,再到AI訓練,服務器需求也在發(fā)生相應變化。從單一服務器更加強調(diào)服務個體性能,如穩(wěn)定性、吞吐量、響應時間等。云數(shù)據(jù)中心服務器對單個服務器性能要求下降,但更強調(diào)數(shù)據(jù)中心整體性能,如成本、快速部署和交付。邊緣計算場景下,開始出現(xiàn)異構計算等復雜環(huán)境計算,對數(shù)據(jù)交互實時性要求有所提升,需要在邊緣端設立單獨的服務器設施。而AI服務器主要專為人工智能訓練設計,數(shù)據(jù)類型以向量/張量為主,多采用大規(guī)模并行計算以提升運算效率。

圖片

同一技術路線下,服務器面向數(shù)據(jù)處理需求持續(xù)迭代。復盤主流服務器發(fā)展歷程來看,隨著數(shù)據(jù)量激增、數(shù)據(jù)場景復雜化,不同類型服務器發(fā)展驅動力也有所差異。具體來看:

1)通用服務器:傳統(tǒng)通用服務器的發(fā)展與計算機架構發(fā)展同步,通過處理器的時鐘頻率、指令集并行度、核數(shù)等硬件指標的提升優(yōu)化自身性能,發(fā)展較為緩慢。

2)云計算服務器:云計算的概念于20世紀80年代提出,僅20年后就有較為成熟的產(chǎn)品推出,如VMware的VMware Workstation和亞馬遜AWS等。2010年隨著OpenStack開源,阿里云、華為云等項目相繼布局,云計算行業(yè)快速走向成熟。

3)邊緣計算服務器:邊緣計算概念孵化于2015年,僅2年后就有諸如亞馬遜AWS Greengrass、谷歌GMEC等邊緣計算平臺產(chǎn)生,并在微軟的帶領下提前進入技術并購期。

4)AI服務器:AI服務器最早由思科在2018推出,專為人工智能、機器學習的工作服務而設計,硬件架構更加適合AI訓練場景下的算力需求。

圖片

2、云計算服務器:大規(guī)模數(shù)據(jù)處理需求下的商業(yè)模式變革

數(shù)據(jù)量激增帶來大算力需求,云計算服務器應運而生。通用服務器通過提高硬件指標提升性能,而隨著CPU的工藝和單個CPU的核心數(shù)量接近極限,通用服務器性能難以支持數(shù)據(jù)量激增帶來的性能需求。云計算服務器則通過虛擬化技術,將計算和存儲資源進行池化,把原來物理隔離的單臺計算資源進行虛擬化和集中化。最終以集群化處理來達到單臺服務器所難以實現(xiàn)的高性能計算。同時,云計算服務器集群的計算能力可以通過不斷增加虛擬化服務器的數(shù)量來進行擴展,突破單個服務器硬件限制,應對數(shù)據(jù)量激增帶來的性能需求。

云計算服務器節(jié)約部分硬件成本,降低算力采購門檻。早期大規(guī)模數(shù)據(jù)處理成本極高,原因在于通用服務器的購置和運維成本居高不下。傳統(tǒng)服務器中均包含處理器摸塊、存儲模塊、網(wǎng)絡模塊、電源、風扇等全套設備,而云計算服務器體系架構精簡,省去重復的模塊,提高了利用率。同時云計算服務器針對節(jié)能需求,將存儲模塊進行虛擬化,并去除了主板上的非必要硬件,降低了整體計算成本,并通過流量計費模式,使得更多廠商可以負擔算力開支,降低了算力采購門檻。

圖片

3、邊緣服務器:高數(shù)據(jù)密度和帶寬限制下保證低時延

邊緣計算在云計算的基礎上引入邊緣層。邊緣計算是在靠近物或數(shù)據(jù)源頭的網(wǎng)絡邊緣側,為應用提供融合計算、存儲和網(wǎng)絡等資源。在體系架構上,邊緣計算在終端層和云層之間引入邊緣層,從而將云服務擴展到網(wǎng)絡邊緣。其中終端層由物聯(lián)網(wǎng)設備構成,最靠近用戶,負責收集原始數(shù)據(jù)并上傳至上層進行計算;邊緣層由路由器、網(wǎng)關、邊緣服務器等組成,由于距離用戶較近,可以運行延遲敏感應用,滿足用戶對低時延的要求;云層由高性能服務器等組成,可以執(zhí)行復雜計算任務。

圖片

邊緣計算較云計算在實時性、低成本和安全性等方面有優(yōu)勢:

1)實時性:邊緣計算將原有云計算中心的計算任務部分或全部遷移到與用戶距離更近的網(wǎng)絡邊緣進行處理,而不是在外部數(shù)據(jù)中心或云端進行,因此提高了數(shù)據(jù)傳輸性能,保證了處理的實時性。

2)低帶寬成本:終端產(chǎn)生的數(shù)據(jù)無需遠距離傳輸至云端,避免帶寬成本。同時,邊緣計算機制中,邊緣層可對終端產(chǎn)生數(shù)據(jù)進行預處理,從而降低云計算中心的計算負載。

3)安全性:邊緣計算在本地設備和邊緣層設備中處理大部分數(shù)據(jù)而不是將其上傳至云端,減少實際存在風險的數(shù)據(jù)量,避免數(shù)據(jù)泄露危險。

圖片

4、AI服務器:更適合深度學習等AI訓練場景

AI服務器采取GPU架構,相較CPU更適合進行大規(guī)模并行計算。通用服務器采用CPU作為計算能力來源,而AI服務器為異構服務器,可以根據(jù)應用范圍采用不同的組合方式,如CPUGPU、CPUTPU、CPU其他加速卡等,主要以GPU提供計算能力。從ChatGPT模型計算方式來看,主要特征是采用了并行計算。對比上一代深度學習模型RNN來看,Transformer架構下,AI模型可以為輸入序列中的任何字符提供上下文,因此可以一次處理所有輸入,而不是一次只處理一個詞,從而使得更大規(guī)模的參數(shù)計算成為可能。而從GPU的計算方式來看,由于GPU采用了數(shù)量眾多的計算單元和超長的流水線,因此其架構設計較CPU而言,更適合進行大吞吐量的AI并行計算。

圖片

深度學習主要進行矩陣向量計算,AI服務器處理效率更高。從ChatGPT模型結構來看,基于Transformer架構,ChatGPT模型采用注意力機制進行文本單詞權重賦值,并向前饋神經(jīng)網(wǎng)絡輸出數(shù)值結果,這一過程需要進行大量向量及張量運算。而AI服務器中往往集成多個AI GPU,AI GPU通常支持多重矩陣運算,例如卷積、池化和激活函數(shù),以加速深度學習算法的運算。因此在人工智能場景下,AI服務器往往較GPU服務器計算效率更高,具備一定應用優(yōu)勢。

圖片

AI服務器分類方式有兩種:

1)按應用場景:AI服務器按照應用場景可以分為深度學習訓練型和智能應用推理型。訓練任務對服務器算力要求較高,需要訓練型服務器提供高密度算力支持,典型產(chǎn)品有中科曙光X785-G30和華為昇騰Atlas 800(型號9000、型號9010)。推理任務則是利用訓練后的模型提供服務,對算力無較高要求,典型產(chǎn)品有中科曙光X785-G40和華為昇騰Atlas 800(型號3000、型號3010)。

2)按芯片類型:AI服務器為異構服務器,可以根據(jù)應用范圍調(diào)整計算模塊結構,可采用CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多種加速卡等組合形式。目前,產(chǎn)品中最常見的是CPU+多塊GPU的方式。

圖片

常見的AI服務器分為四路、八路、十六路。一般來說,通用服務器主要采用以CPU為主導的串行架構,更擅長邏輯運算;而AI服務器主要采用加速卡為主導的異構形式,更擅長做大吞吐量的并行計算。按CPU數(shù)量,通用服務器可分為雙路、四路和八路等。雖然AI服務器一般僅搭載1-2塊CPU,但GPU數(shù)量顯著占優(yōu)。按GPU數(shù)量,AI服務器可以分為四路、八路和十六路服務器,其中搭載8塊GPU的八路AI服務器最常見。

圖片

AI服務器采用多芯片組合,算力硬件成本更高。我們以典型服務器產(chǎn)品為例拆解硬件構成,可以更清晰地理解兩類服務器硬件架構區(qū)別:以浪潮通用服務器NF5280M6為例,該服務器采用1~2顆第三代Intel Xeon可擴展處理器,據(jù)英特爾官網(wǎng),每顆CPU售價約64000萬元,故該服務器芯片成本約64000~128000;以浪潮AI服務器NF5688M6為例,該服務器采用2顆第三代Intel Xeon可擴展處理器+8顆英偉達A800 GPU的組合,據(jù)英偉達官網(wǎng),每顆A800售價104000元,故該服務器芯片成本約96萬元。

圖片

5、ChatGPT需要的芯片:CPU+GPU、FPGA、ASIC

GPT模型訓練需要大算力支持,或將帶來AI服務器建設需求。我們認為,隨著國內(nèi)廠商陸續(xù)布局ChatGPT類似產(chǎn)品,GPT大模型預訓練、調(diào)優(yōu)及日常運營或將帶來大量算力需求,進而帶動國內(nèi)AI服務器市場放量。以GPT-3 175B模型預訓練過程為例,據(jù)OpenAI,進行一次GPT-3 175B模型的預訓練需要的算力約3640 PFlop/s-day。我們假設以浪潮信息目前算力最強的AI服務器NF5688M6(PFlop/s)進行計算,在預訓練期限分別為3、5、10天的假設下,單一廠商需采購的AI服務器數(shù)量分別為243、146、73臺。

圖片

圖片

AI大模型訓練需求火熱,智能算力規(guī)模增長有望帶動AI服務器放量。據(jù)IDC數(shù)據(jù),以半精度(FP16)運算能力換算,2021年中國智能算力規(guī)模約155.2EFLOPS。隨著AI模型日益復雜、計算數(shù)據(jù)量快速增長、人工智能應用場景不斷深化,未來國內(nèi)智能算力規(guī)模有望實現(xiàn)快速增長。IDC預計2022年國內(nèi)智能算力規(guī)模將同比增長72.7%至268.0 EFLOPS,預計2026年智能算力規(guī)模將達1271.4 EFLOPS,2022-2026年算力規(guī)模CAGR將達69.2%。我們認為,AI服務器作為承載智能算力運算的主要基礎設施,有望受益于下游需求放量。

責任編輯:張燕妮 來源: 架構師技術聯(lián)盟
相關推薦

2010-08-04 15:35:02

2010-05-14 10:05:37

至強7500刀片服務器

2019-03-06 11:16:16

服務器虛擬化內(nèi)存

2010-05-28 16:45:14

戴爾服務器評測

2023-05-11 08:11:10

LightNode付費模式主機

2011-04-29 10:10:50

富士通BX400S1

2010-05-18 13:02:30

2009-10-30 13:41:46

寬帶接入服務器

2011-11-04 09:42:26

服務器電源節(jié)能

2009-03-18 17:11:29

四核服務器處理器

2023-04-06 07:43:31

服務器ChatGPT網(wǎng)頁版

2017-11-10 08:58:49

Web服務器應用程序

2025-06-03 09:31:05

2017-09-14 08:43:05

2020-11-24 13:47:56

服務器

2018-08-21 09:49:02

GPU云服務器深度學習

2017-10-31 10:11:04

深度學習服務器DeepLearnin

2010-05-07 17:59:05

Unix服務器

2018-04-26 08:35:40

云服務器深度學習GPU

2018-01-12 15:59:36

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 美国一级毛片a | 99久久99| 中文字幕一区二区三区在线乱码 | 久久久观看 | 久久99精品久久久久婷婷 | 在线看无码的免费网站 | 欧美综合国产精品久久丁香 | 免费在线观看一区二区 | 天天色天天色 | 亚洲天堂久久 | 搞黄视频免费看 | 亚洲第一福利视频 | 日韩视频91 | 成人做爰9片免费看网站 | 亚洲欧美日韩中文字幕一区二区三区 | 韩国av一区二区 | av片在线观看网站 | 亚洲欧美日韩国产 | 中文字幕在线看人 | www.天天操 | 国产不卡视频在线 | 欧美另类视频在线 | 亚洲一区二区三区在线播放 | 国产情侣久久 | 亚洲国产精品日韩av不卡在线 | 精品91av| 亚洲精品综合一区二区 | 久久久青草 | 91视频免费 | a天堂在线| 91在线观看视频 | 色99视频| 亚洲视频一区在线播放 | 成人三区四区 | 国产一区二区三区视频在线观看 | 四虎永久免费影院 | 国产欧美日韩一区二区三区在线观看 | 久久久999精品 | 麻豆hd | 欧美一a一片一级一片 | 中文字幕第5页 |