SuperX發(fā)布最新XN9160-B300 AI服務(wù)器,Blackwell Ultra 比 Blackwell計(jì)算能力增加了 50%
新加坡2025年10月3日 /美通社/ -- Super X AI Technology Limited(納斯達(dá)克代碼:SUPX)(簡(jiǎn)稱"公司"或"SuperX")今日宣布,正式推出其最新旗艦產(chǎn)品——SuperX XN9160-B300 AI服務(wù)器。該服務(wù)器搭載NVIDIA Blackwell GPU(B300),旨在滿足AI訓(xùn)練、機(jī)器學(xué)習(xí)(ML)和高性能計(jì)算(HPC)等工作負(fù)載對(duì)可擴(kuò)展、高性能計(jì)算日益增長(zhǎng)的需求。系統(tǒng)專為極致性能而設(shè)計(jì),集成了先進(jìn)的網(wǎng)絡(luò)功能、可擴(kuò)展的架構(gòu)和高能效設(shè)計(jì),為關(guān)鍵任務(wù)型數(shù)據(jù)中心環(huán)境提供有力支持。
SuperX XN9160-B300 AI服務(wù)器專為加速大規(guī)模分布式AI訓(xùn)練和AI推理工作負(fù)載而打造,為高強(qiáng)度、高需求的應(yīng)用提供極致的GPU性能。它針對(duì)GPU密集型任務(wù)進(jìn)行了優(yōu)化,在基礎(chǔ)模型訓(xùn)練與推理,包括強(qiáng)化學(xué)習(xí)(RL)、蒸餾技術(shù)和多模態(tài)AI模型等領(lǐng)域表現(xiàn)卓越,同時(shí)也能為氣候建模、藥物發(fā)現(xiàn)、地震分析和保險(xiǎn)風(fēng)險(xiǎn)建模等HPC工作負(fù)載提供超高性能。
XN9160-B300專為企業(yè)級(jí)AI和HPC環(huán)境設(shè)計(jì),將超級(jí)計(jì)算機(jī)級(jí)別的性能與高能效、可擴(kuò)展的架構(gòu)相結(jié)合,以緊湊的、數(shù)據(jù)中心就緒的形態(tài),提供關(guān)鍵任務(wù)所需的能力。
SuperX XN9160-B300 AI服務(wù)器的發(fā)布,是SuperX AI基礎(chǔ)設(shè)施路線圖上的一個(gè)重要里程碑,它將以強(qiáng)大的GPU實(shí)例和計(jì)算能力,加速全球AI創(chuàng)新。
圖 1. SuperX XN9160-B300 AI 服務(wù)器, Blackwell Ultra架構(gòu)
XN9160-B300 AI服務(wù)器
SuperX XN9160-B300 AI服務(wù)器在8U機(jī)箱內(nèi)釋放極致的AI計(jì)算性能,配備英特爾?至強(qiáng)?6處理器、8顆NVIDIA Blackwell B300 GPU、高達(dá)32個(gè)DDR5 DIMM插槽,并通過(guò)多達(dá)8個(gè)800Gb/s InfiniBand端口提供高速網(wǎng)絡(luò)連接。
極高的GPU算力與顯存
XN9160-B300被構(gòu)建為一個(gè)高度可擴(kuò)展的AI節(jié)點(diǎn),其核心是搭載8顆NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模組。這一配置為下一代AI工作負(fù)載提供了Blackwell架構(gòu)的峰值性能。
至關(guān)重要的是,該服務(wù)器通過(guò)其8顆GPU提供了高達(dá)2,304GB的統(tǒng)一HBM3E顯存(每顆GPU 288GB)。這個(gè)龐大的顯存池對(duì)于消除內(nèi)存卸載、支持更大模型的駐留、以及管理高并發(fā)、長(zhǎng)上下文的生成式AI和大型語(yǔ)言模型所需的海量鍵/值緩存至關(guān)重要。
極致的推理與訓(xùn)練吞吐量
該系統(tǒng)利用B300卓越的FP4/NVFP4精度和第二代Transformer引擎,實(shí)現(xiàn)了性能的巨大飛躍。據(jù) NVIDIA 稱Blackwell Ultra 比 Blackwell 有了決定性的飛躍,每塊芯片的 NVFP4 計(jì)算能力增加了 50%,HBM 容量增加了 50%,從而能夠在不影響效率的情況下實(shí)現(xiàn)更大的模型和更快的吞吐量。[1]
得益于8個(gè)用于InfiniBand的800Gb/s OSFP端口或雙400Gb/s以太網(wǎng),系統(tǒng)擴(kuò)展輕而易舉。這些端口提供了將服務(wù)器連接成大型AI工廠和SuperPOD集群所需的高速、低延遲通信。第五代NVLink互連技術(shù)進(jìn)一步確保了板載的8顆GPU無(wú)縫通信,如同一個(gè)單一、強(qiáng)大的加速器。
強(qiáng)大的CPU與電源基礎(chǔ)
GPU計(jì)算集群由一個(gè)強(qiáng)大的主機(jī)平臺(tái)支持,該平臺(tái)配備雙路英特爾?至強(qiáng)?6處理器,為加速器提供所需的數(shù)據(jù)吞吐效率和帶寬。內(nèi)存子系統(tǒng)同樣強(qiáng)大,采用32個(gè)DDR5 DIMM插槽,支持高達(dá)8000MT/s的速度(MRDIMM),確保主機(jī)平臺(tái)永遠(yuǎn)不會(huì)成為GPU處理的瓶頸。
為保證關(guān)鍵任務(wù)的可靠性和持續(xù)性能,XN9160-B300配備了12個(gè)3000W 80 PLUS Titanium的冗余電源,確保在持續(xù)峰值負(fù)載下實(shí)現(xiàn)極高的能源效率和穩(wěn)定性。系統(tǒng)還包括多個(gè)高速PCIe Gen5 x16插槽和全面的存儲(chǔ)選項(xiàng),包括8個(gè)2.5英寸Gen5 NVMe熱插拔硬盤(pán)位。
技術(shù)規(guī)格:
組件 | 規(guī)格 |
CPU | 2 x Intel? Xeon 6th Gen P-Core處理器,功率高達(dá)350W(SP)/500W(AP) |
GPU | 8 x NVIDIA Blackwell B300 |
內(nèi)存 | 32個(gè)96GB DDR5 5600 RDIMM |
系統(tǒng)盤(pán) | 2個(gè)1920GB SSD |
存儲(chǔ)盤(pán) | 8個(gè)3.84TB NVMe U.2 |
網(wǎng)絡(luò) | 模組上CX8提供的8個(gè)OSFP (800G)端口 |
尺寸 | 8U 447mm(高) x 351mm(寬) x 923mm(深) |
市場(chǎng)定位
XN9160-B300專為那些致力于突破AI邊界的組織而設(shè)計(jì),滿足其對(duì)最大規(guī)模、下一代模型和超低延遲的嚴(yán)苛要求:
超大規(guī)模AI工廠: 適用于構(gòu)建和運(yùn)營(yíng)萬(wàn)億參數(shù)基礎(chǔ)模型及高并發(fā)AI推理引擎的云服務(wù)提供商和大型企業(yè)。
科學(xué)模擬與研究: 用于百億億次(Exascale)級(jí)科學(xué)計(jì)算、先進(jìn)分子動(dòng)力學(xué)以及創(chuàng)建全面的工業(yè)或生物數(shù)字孿生。
金融服務(wù): 用于實(shí)時(shí)風(fēng)險(xiǎn)建模、高頻交易模擬,以及部署用于金融分析且要求超低延遲的復(fù)雜大型語(yǔ)言模型。
生物信息學(xué)與基因組學(xué): 用于加速海量基因組測(cè)序、藥物發(fā)現(xiàn)流程以及需要B300巨大顯存容量的蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)。
全球系統(tǒng)建模: 適用于需要極致算力進(jìn)行全球氣候和天氣建模及高精度災(zāi)害預(yù)測(cè)的國(guó)家氣象和政府機(jī)構(gòu)。
[1] https://developer.nvidia.com/blog/inside-nvidia-blackwell-ultra-the-chip-powering-the-ai-factory-era/ |
-
海能新能源助力科技創(chuàng)新——第六屆射頻與天線技術(shù)國(guó)際學(xué)術(shù)研討會(huì)在深圳成功召開(kāi)
-
漢王友基與廣州美術(shù)學(xué)院達(dá)成校企戰(zhàn)略合作
-
以遠(yuǎn)見(jiàn)超越未見(jiàn) | 2023 山石網(wǎng)科 · 安全守護(hù)者峰會(huì)成功舉辦
-
漢王友基點(diǎn)陣筆新品上市,賦能紙筆互動(dòng)智慧教育場(chǎng)景
-
新生產(chǎn)力,躍升!2023WAIC“智慧金融與數(shù)字員工”分論壇在滬成功舉辦
-
DHL亞特蘭大樞紐投運(yùn)
-
三亞太陽(yáng)灣柏悅酒店開(kāi)啟盛夏山海暑期童趣之旅