根據(jù)機構(gòu)TrendForce集邦咨詢研究報告,英偉達Hopper平臺人工智能(AI)芯片H100于第一季度短缺情況逐漸緩解,新品H200第二季度逐漸放量。最新產(chǎn)品Blackwell系列B200等即將進入市場,預計第四季度開始放量。機構(gòu)預計,英偉達AI芯片將帶動CoWoS封裝總產(chǎn)能大增,估計臺積電2024年CoWoS產(chǎn)能增幅將達到150%,全球總體產(chǎn)能將在2025年后保持70%的年均增長率,其中英偉達需求占比近半。
根據(jù)供應鏈消息,今年英偉達AI芯片扔將以Hopper平臺為主,Blackwell平臺占整體高端GPU比例將低于10%。
機構(gòu)表示,B100等芯片裸晶尺寸(die size)相比上一代H100翻倍,因此對CoWoS產(chǎn)能需求增加。HBM高帶寬存儲方面,隨著英偉達GPU平臺推進,H100主要搭載80GB容量HBM3,至2025年的B200將達搭載288GB的HBM3e,單顆搭載容量將近3~4倍增長。而據(jù)三大存儲芯片原廠目前擴展規(guī)劃,2025年HBM生產(chǎn)量預期也將翻倍。
TrendForce研究顯示,全球頭部云服務商(CSP)中,微軟、Meta、AWS導入英偉達最新AI芯片較為積極,預計2025年GB200方案合計出貨量有機會達30000臺機柜。谷歌則有可能優(yōu)先擴大自家TPU AI基礎設施。
關于2024年全球AI服務器需求,自2024年上半年隨GPU供貨短缺獲緩解后,今年來自服務器品牌商如戴爾、HPE(慧與)的需求占比將擴大至19%;其他包含各地區(qū)Tier-2數(shù)據(jù)中心如CoreWeave、特斯拉等,或各國家/地區(qū)超算中心項目等,合計需求占比將提高至31%,主要因為AI訓練或應用過程中,可能涉及數(shù)據(jù)隱私安全等議題,預計未來此塊市場也將扮演驅(qū)動AI服務器出貨增長的關鍵。