Blackwell平台登 AI料中心入Exaflops新元

商媒|者任/合外
全球AI算持升,AI晶片(NVIDIA)在美行的「Hot Chips 2025年」上,表最新一代Blackwell GB200GB300系,同公MGX模化架技。次不展示在超大模料中心的思,也凸其推放式算(Open Compute Platform, OCP)的心。
根科技媒《Wccftech》,械工程(John Norton)在中以「NVIDIA GB200/300案例研究」,明程中的挑突破。表示,去不同客需要管理模、路控制器(NIC)、CPUGPU配置行整,每一次小改往往造成系影,以快速展。
解此,提出MGX架,即透伺服器切分化的「木模」,不同部件可活互,同制定一介面格,企只需整一模即可完成系化。更重要的是,已MGXOCP,放供客共享,意味各大料中心者可在一格基上,的客化解方案。
在上,GB200GB300用分:部交器,下方配置源供,再依序排列算模交模。一GB200包含18算模9交模,整效能高1.4 Exaflops,功耗120。
其中,每算模(Compute Tray)配置2Grace CPU4Blackwell GPU,搭主理模(HPM)。在散方面,用100%液冷,入OCP的 UQD(Universal Quick Disconnect),大幅提升更效率。
此外,系以NVLink Spine串接,通道速率200Gb/s,透低延互所有GPU模成一。支如此大功耗,亦重新源流排(Bus Bar),承能力35kW提升至140kW,深度由1068毫米展至1200毫米。
特指出,MGX架的一大在於「放格」:不提供完整3D模型,也允客依需求更 SSD(如 U.2 或 E1S)、NIC 或管理解方案,一步提高活性。
界察指出,代表正把去「封式系」化「化放平台」,此不有助於料中心加速入Blackwell系列,更有望推上下游供快速展。
目前,GB200GB300已正式量,在多超大模端服商的料中心行;同承持「年度升」奏,在密度、能效散技上持突破。未著入NVLink Fusion等新一代技,Blackwell系有望成支全球AI推的核心基。
市分析,著AI模型模持,料中心者高密度、低延且具放性的硬架需求持攀升。次展示不是技演,更在宣示其要主 AI 料中心化的略。

- 者:商媒
- 更多科技新 »