AI服務器主要指的是采用異構形式的服務器,表現形態多為機架式。在異構方式上,可以為CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多種加速卡。
而在其他組成部件上,如內存模塊、存儲模塊、網絡模塊與傳統服務器差別不大,主要的提升便是支持更大容量的內存滿足當下實時負載增加的需求,提供更多外置硬盤插槽,并廣泛支持NVME/PCIE等SSD,滿足數據洪流需求,網絡模塊主要表現為帶寬增加。
盡管AI服務器可以采用多種異構形式,但目前廣泛使用的是CPU+GPU。也因此,業界在談到AI服務器時,往往將其默認為GPU服務器。因此,在第二部分中,筆者談到的AI服務器優勢也主要為GPU服務器。
我們都知道,傳統服務器主要以CPU為算力提供者。而CPU為通用型處理器,采用串行架構,擅長邏輯計算,負責不同類型種類的數據處理及訪問,同時邏輯判斷又需要引入大量分支跳轉中斷處理,這使得CPU的內部結構復雜。也因此,CPU算力的提升主要靠堆核來實現。
隨著云計算、大數據、AI、物聯網等技術應用,數據在近幾年呈指數型增長,IDC統計顯示90%數據均在近幾年產生,這便對CPU的處理能力提出考驗,而目前CPU的物理工藝、核心數已接近極限,數據量卻不會停止,服務器的處理能力必須提升。因此,在AI時代下,僅由CPU做算力提供者的傳統服務器并不能滿足需求。
不同于CPU,GPU采用并行計算模式,單卡核心數達到上千個,擅長處理密集型運算應用,如圖形渲染、計算視覺和機器學習。經過幾年驗證,搭載GPU的服務器也被證實的確適用這個時代。
產品特性:
1、支持8片全高全長雙寬專業GPU卡,支持多路并發密集型計算;
2、采用Intel C622芯片組,支持2顆Xeon? Scalable 系列處理器(TDP 205W);
3、支持24條DDR4 2666/2400/2133MHz內存,Zui高容量可達3TB(ECC 3DS LRDIMM);
4、Zui大支持24個2.5”熱插拔存儲盤位;
5、提供豐富的PCI-E插槽,輕松實現擴展;
6、支持IPMI 協議,提供方便安全的遠程管理功能;
7、板載萬兆網絡接口,提供穩定、高速的I/O連接;
8、可根據客戶實際應用需求定制細節配置。