超強性能+極致應用,寶德AI服務器推動智能化發展
如今,由于云計算、AI等技術的出現,正在推動數據中心設計的結構性轉變,CPU+GPU加速計算的平臺成為主流,未來隨著這些技術的不斷普及,越來愈多的行業、企業將會產生類似需求。寶德早已意識到這一趨勢,并率先推出了AI系列服務器產品以提升AI訓練和AI推理性能。日前,NVIDIA發布的Ampere架構的第三代Tensor Core,更是帶來了巨大的性能飛躍,可將AI訓練時間從數周縮短到幾小時,顯著加快了推理速度,無疑助推了整個AI行業的發展。
寶德首臺DGX A100交付應用,賦能客戶業務
DGX A100是適用于所有AI負載的通用系統,能夠將訓練、推理、分析整合至易于部署的單一人工智能基礎架構,為企業提供前所未有的運算密度、效能和彈性。相比于上代Volta伏特架構的V100計算卡,安培架構的A100核心在INT8推理性能、FP32訓練性能均實現20倍提升,FP64高性能計算也提高2.5倍,是歷史上進步最大的一次。
DGX A100系統集成了8個全新NVIDIA A100 Tensor Core GPU,具有320GB內存用以訓練最大型的AI數據集,以及最新的高速NVIDIA Mellanox® HDR 200Gbps互連。借助于全新DGX的巨大性能飛躍,面對呈指數級速度增長的AI模型和數據,讓企業保持領先地位。
寶德通過對本地客戶業務的深度洞悉,以及在實際使用中對系統性能要求的深度理解,為客戶提供定制化的DGX A100端到端解決方案。近日,寶德成功交付了首臺DGX A100,再一次證明了寶德助力企業智能化轉型的上乘實力。
寶德首臺DGX A100交付應用于AI領域。該客戶是一家視頻產品和系統方案提供商,運用AI技術做機器視覺、人臉識別、體溫檢測等應用,涉及大量數據。在合作中,我們發現該客戶的深度學習系統已經無法滿足訓練需求,因此,寶德基于DGX A100的優秀性能,打造了一套定制化解決方案。通過實地應用,客戶的深度學習系統的GPU容量在原基礎上進一步提升、GPU集群可并發處理兩倍的AI訓練任務、顯存帶寬也能達到1.6TB/s、互聯能力更迅速并更具擴展性。
當寶德AI服務器“遇上”NVIDIA A100 GPU
NVIDIA A100 GPU中的第三代Tensor Core核心速度更快、靈活性更高,同時也更易于使用,最高性能可達每秒4億次,同時通過新一代NVSwitch技術實現GPU間通信性能翻倍提升,最高達600GB/S。更強計算性能與更高的GPU間互聯帶寬可帶來更高的AI計算效率,支撐用戶進行更大數據規模、更復雜模型的AI訓練。此外,NVIDIA A100 GPU擁有40GB的HBM2內存,內存帶寬提高70%,達到1.6TB/s,可以承載更大的深度學習模型訓練。
得益于敏捷而強大的產品設計開發能力,寶德在業界較早實現了對NVIDIA® Ampere架構GPU的快速跟進,即將推出多款基于NVIDIA® Ampere架構的AI服務器產品。
新一代產品擁有更好的兼容性,拓撲結構更靈活:PCIe插槽支持GEN4,支持4到10張PCIe版NVIDIA A100,最多8個NVMe驅動器,內存最大可以支持DDR4-3200,為AI客戶提供專為應用場景極致創新優化設計的AI計算平臺,進一步豐富寶德AI服務器產品陣列,以更好地應對當前海量數據爆發和復雜模型所帶來的巨大計算挑戰。同時與AI客戶展開緊密合作,幫助其在語音、語義、圖像、視頻、搜索等各方面取得數量級的AI應用性能提升。