摘要
AI 大模型的突破,最早使得 AI 晶片公司受益。 但隨著未來雲服務商的資本支出維持中等增速,整個 AI 行業的高增長性開始存疑。
主要結論如下:
1)雲端 AI 晶片雖不再有+100%以上的增速,但仍有 2 位數增長,2024~2030 年CAGR 為 23%。
2)2023~2027年,雲端 AI 晶片增速高於邊緣 AI 晶片,推理 AI 晶片增速高於訓練 AI 晶片,定製 AI 晶片增速高於通用 AI 晶片。
3)AI 晶片收入大部分流向英偉達,約佔 60%。
4)2026年,台積電 AI 收入佔比升至 20%。
5)2023~2027 年,HBM 行業收入 CAGR 為 103%。
6)DC 交換機行業收入增速,2024年為13%,2025年為17%。 ANET、英偉達將獲得更多市場份額。
7)乙太網將逐漸從 InfiniBand 中獲取更多市場份額,ANET、博通將是主要受益者。
8)微軟、亞馬遜、谷歌、Meta 仍是 AI 伺服器的主要客戶。
9)微軟、亞馬遜、谷歌、Meta 的 Capex 將大致維持 10~20% 增長,而市場預計AI 晶片 2023~2027 年的 CAGR 為 47%,高增長存疑。
10)ChatGPT、Gemini(Bard)、Bing Chat 美國地區採用率還較低,2024 年 AI 應用收入占 AI 晶片成本約 3%。 僅是訓練 GPT-5 的 GPU 成本高達 13 億美元,且 AI 應用採用率、收入低,對 AI 硬體需求的可持續性有巨大挑戰。
一、AI 晶片
自 Transformer 架構出現以來,AI 大模型迎來高速的發展期。 大模型的性能大幅提升,但也使得 AI 算力需求呈指數級增長,每年增速達 15 倍。 2025年,雲端 AI 資本支出達 3000 億美元,其中雲端 AI 晶片佔 2300 億美元,其中大部分流向了英偉達,約佔 60%。
二、主要受益者
1、晶元設計公司(英偉達、博通)
市場預計,未來雲端晶元增速高於邊緣晶元。 2023~2027年,雲端AI晶元CAGR為50%; 邊緣AI晶元CAGR為25%。 儘管雲端 AI 晶片仍有不錯的增速,但已經從2024年+100%以上增速回落。
此外,推理AI晶元的需求將逐步超越訓練AI晶元。 2023~2027年,推理AI晶元CAGR為91%; 訓練AI晶元CAGR為17%。 而最近,英偉達CEO黃仁勳也表示,AI的未來在於“推理”,成本是關鍵。 英偉達每年將提高晶元性能2~3倍,同時保持價格、能耗水準,來奠定基礎。 英偉達將繼續受益於推理AI晶元的高增速。
同樣的,定製AI晶元的需求將逐步超越通用AI晶元。 2023~2027年,定製AI晶元CAGR為100%; 通用AI晶元CAGR為50%。 而博通,作為目前最大的定製晶片設計商,為谷歌、Meta、位元組跳動等客戶提供定製化晶片服務,也將繼續受益於定製AI晶元的高增速。
2、晶元製造公司(台積電)
在晶片製造環節,台積電是主要受益者。 預計2024年,AI收入佔比升至11%,在2027年,將達到20%以上。 主要因為,AI晶片對先進位造工藝的需求增加,2nm、3nm、5nm的晶圓價格預計將繼續上升。
最近,台積電2nm製程工藝也取得重大突破。 相較前代N3E,N2工藝在相同功率下實現10~15%性能提升。 新工藝採用Gate-all-around FETs(GAAFET)、NanoFlex技術,晶體管密度提升15%。 每片2nm晶圓價格超3萬美元,高於之前預期的2.5萬美元,是4/5nm的兩倍。 台積電的技術本身就領先三星、英特爾等,此次突破,將有效鞏固技術壁壘。
3、高端記憶體公司(海力士、三星、美光)
高端記憶體HBM作為AI晶元的重要組成部件,需求也大幅提升。 市場預計2024年HBM消耗量高達78億GB,同比增長+140%。 其中,大部分被英偉達獲得,佔44%; 谷歌獲得31%,AMD獲得13%。 預計2023~2027年,HBM市場規模CAGR為103%,海力士、三星、美光是HBM前3大廠商,因此受益。
4、DC交換機公司(ANET、英偉達)
DC交換機主要用於連接資料中心的AI晶元,支持數據中心的運作。 2023年,DC交換機收入增長+27%。 預計此後增速逐步恢復正常,仍保持中等兩位數增速,2024年為13%,2025年為17%。 在2023~2027年,大規模雲服務商的增速會更快,CAGR達33%,而企業客戶增速仍比較穩定,CAGR達10%。 企業客戶在2024年仍能保持59%市場份額。
市場份額上,思科佔比自2022年來,持續下降,預計在2025年趨於穩定。 Arista Networks(ANET)、英偉達近年實現市場份額增長。 2024年,英偉達市場份額達25%,2025年將進一步增長。 主要因為,這些公司在數據中心業務中,緊密配合雲服務商,搭建起AI晶元伺服器,從而獲得高增長。
5、網路基建公司(ANET、博通、英偉達)
乙太網、InfiniBand在2023年都實現快速增長,因為這些網路基建説明AI晶元伺服器實現高速連接,從而分享AI行業的高增長。 市場預計,隨著雲服務商逐漸傾向於定製自己的AI伺服器,獲得更大的自由度,乙太網將逐漸從InfiniBand中獲取更多市場份額,而ANET、博通將是主要受益者。 因為,InfiniBand是英偉達的產品,雖然速度快,丟包少,但價格昂貴,且無法按需要定製。 而乙太網能解決這個問題,雖然穩定性、速度略差。 而InfiniBand在2025年仍有60%左右份額。
三、AI硬體需求
AI硬體需求,主要還是各大科技公司。 2023年,微軟佔32%,谷歌佔14%,亞馬遜佔12%,Meta佔7%,共佔65%。 但到了2024年,大科技公司雖仍是主要買家,但佔比減少,微軟佔11%,Meta佔11%,亞馬遜占9%,谷歌占9%,共佔40%。
對於英偉達最新的GB200晶元需求,微軟佔40%,亞馬遜佔26%,谷歌佔10%,Meta佔7%,共83%。
目前,科技巨頭的Capex/EBITDA比率在40%左右,Capex/Revenue比率維持10~25%之間,仍很健康。 預計未來變化不大。 因此,大科技公司的Capex將大致維持與收入增速同等水準,約10~20%增長。 而市場預期2023~2027年,AI晶元市場CAGR為47%。 兩者相差巨大,未必能實現。 除非科技巨頭的收入增速增加,或者Capex/EBITDA比率增加,才有可能達到市場預期。
四、AI採用率、收入、成本
從目前調查看,ChatGPT、Gemini(Bard)、Bing Chat在美國地區的採用率還較低。 每月使用ChatGPT的受訪者為30%,每月使用Gemini的受訪者為24%。 預計2024年AI應用收入規模約50億美元。 相比2024年1500億的AI晶元資本投入,佔比約3%,可謂杯水車薪。
下一代模型GPT-5,將有15萬億個參數,使用超70萬億Tokens,訓練需要約63億exaFLOPs(1exaFLOP = 10的18次方FLOP)算力。 據此,估計訓練GPT-5的GPU成本可能高達13億美元,而訓練GPT-4的GPU成本為3億美元。 單單GPU成本就需13億美元,還不算其他硬體、電耗、人工成本,未來更先進模型的資本支出巨大。
目前AI應用採用率、收入,仍然無法支撐起AI的高投入成本。 市場對AI晶元的高增速預期,對AI硬體需求的可持續性,仍然有巨大挑戰。
五、總結
對目前AI應用普及率低的問題,科技公司們也心知肚明。 OpenAI在近期完成了66億美元融資,預計這筆資金將用來開發GPT-5,還有用於推廣、普及OpenAI應用。 對投資而言,還需密切關注AI應用、模型的更新情況,看是否出現情況好轉。
參考資料:
1.Morgan Stanley,《TMT Webcast: Prefer AI Semis to Traditional Memory, PC, and Cloud; Upgrade ASE to OW》
2.Morgan Stanley,《Greater China Semiconductor: Memory cold, but AI Semi still warm》
3. Barclays,《AI Backend Powering Healthy Double-Digit Growth for DC Switching》