策:AI伺服器需求大爆 台供可望全面受惠
策情研究所(MIC)在9/8、9/9第38 MIC FORUM Fall《:科技主 全球新局》,今年在8日特聚焦「主AI」,全球各如何因主AI意的崛起,不料中心市快速成,也替台新商。
策情研究所(MIC)在9/8、9/9第38 MIC FORUM Fall《:科技主 全球新局》,今年在8日特聚焦「主AI」,全球各如何因主AI意的崛起,不料中心市快速成,也替台新商。
所「主AI」是各保AI的源策能掌握在自己手中,能在安全、、文化境上自主推展,除了加快政策制定,也同步展符合在地料的AI模型生成式AI用。
目前,美、、新加坡是最投入算力基建的家,盟投次於美;至於沙地阿拉伯和阿酋,著重於料治理本地化用,魏虔指出,不同家在主AI硬上的需求和源件各有差,因而形成多元市,台就能在些不同的切入找到利基,他也提醒,主AI的潮正在未料中心的方式架,同推攻AI算力租的新端服商(如NEO、GPU Cloud)快速崛起。
[caption id="attachment_191229" align="aligncenter" width="1024"]
策兼副主任魏虔。(/策提供)[/caption]
延伸:
各布局主AI算力是全球伺服器市成的之一,策MIC表示,2025年全球伺服器市1,432台,成5.6%,估2026年全球伺服器市1,498台,成4.5%,除了受惠於主AI潮,端服商、科技巨Neo Cloud商皆加大AI伺服器、AI推需求的成影,皆使得AI伺服器需求持提升,2024年AI伺服器出占比23%,估2029年接近四成,38.4%。
注不同型AI伺服器的出占比,估2025年AI伺服器占整28.23%,中低、客化AI伺服器占23.3%、高AI伺服器占4.93%,著AI推需求未年只增不,中低、客化AI伺服器的需求必增,估2029年中低、客化AI伺服器出占比31.95%、高AI伺服器占6.45%。
策MIC指出,主AI潮促使AI料中心,魏虔提出三大,一,各部署高算力的重,聚焦在AI超算力集,其中美即AI超算力的主要布局者。面液冷、源系配置度的提升,一化架已成AI料中心的配。
二,AI晶片算力快速增,以及密度持升高,使得引液冷技成AI料中心的重要化,以直接晶片(DLC)用主流,散者在既有液冷的架之下,提升解能力;三,因AI大量供需求少力耗,料中心高直流(HDVC),提升能源效率整合,且各域展散、源供在地化,正吸引洲、美、洲企布局。
除了AI料中心型的,策MIC指出,主AI潮新商,主要全新型的端服商NEO/GPU Cloud正在崛起,NEO Cloud提供AI打造的AI算力租,在北美、洲太域各有25家以上的者展中。魏虔表示,主全球伺服器的供,主要者已取得大型端服商的客化,不新或自有品牌者不易切入大型端服商的供,使得NEO Cloud等AI新主AI料中心成新,部分地缺乏液冷、源在地供,加上AI料中心尤其需要伺服器、房到力供的系整合能力,而具完整的AI供,可攻新料中心域市。
篇文章 策:AI伺服器需求大爆 台供可望全面受惠 最早出於 科技-掌握科技新、科技最新。
- 者:天心
- 更多科技新 »