摘要
AI 大模型的突破,最早使得 AI 芯片公司受益。但随着未来云服务商的资本支出维持中等增速,整个 AI 行业的高增长性开始存疑。
主要结论如下:
1)云端 AI 芯片虽不再有+100%以上的增速,但仍有 2 位数增长,2024~2030 年CAGR 为 23%。
2)2023~2027 年,云端 AI 芯片增速高于边缘 AI 芯片,推理 AI 芯片增速高于训练 AI 芯片,定制 AI 芯片增速高于通用 AI 芯片。
3)AI 芯片收入大部分流向英伟达,约占 60%。
4)2026 年,台积电 AI 收入占比升至 20%。
5)2023~2027 年,HBM 行业收入 CAGR 为 103%。
6)DC 交换机行业收入增速,2024 年为 13%,2025 年为 17%。ANET、英伟达将获得更多市场份额。
7)以太网将逐渐从 InfiniBand 中获取更多市场份额,ANET、博通将是主要受益者。
8)微软、亚马逊、谷歌、Meta 仍是 AI 服务器的主要客户。
9)微软、亚马逊、谷歌、Meta 的 Capex 将大致维持 10~20% 增长,而市场预计AI 芯片 2023~2027 年的 CAGR 为 47%,高增长存疑。
10)ChatGPT、Gemini(Bard)、Bing Chat 美国地区采用率还较低,2024 年 AI 应用收入占 AI 芯片成本约 3%。仅是训练 GPT-5 的 GPU 成本高达 13 亿美元,且 AI 应用采用率、收入低,对 AI 硬件需求的可持续性有巨大挑战。
一、AI 芯片
自 Transformer 架构出现以来,AI 大模型迎来高速的发展期。大模型的性能大幅提升,但也使得 AI 算力需求呈指数级增长,每年增速达15倍。2025 年,云端 AI 资本支出达 3000 亿美元,其中云端 AI 芯片占 2300 亿美元,其中大部分流向了英伟达,约占 60%。
二、主要受益者
1、芯片设计公司(英伟达、博通)
市场预计,未来云端芯片增速高于边缘芯片。2023~2027年,云端AI芯片CAGR为50%;边缘AI芯片CAGR为25%。尽管云端 AI 芯片仍有不错的增速,但已经从2024年+100%以上增速回落。
此外,推理AI芯片的需求将逐步超越训练AI芯片。2023~2027年,推理AI芯片CAGR为91%;训练AI芯片CAGR为17%。而最近,英伟达CEO黄仁勋也表示,AI的未来在于“推理”,成本是关键。英伟达每年将提高芯片性能2~3倍,同时保持价格、能耗水平,来奠定基础。英伟达将继续受益于推理AI芯片的高增速。
同样的,定制AI芯片的需求将逐步超越通用AI芯片。2023~2027年,定制AI芯片CAGR为100%;通用AI芯片CAGR为50%。而博通,作为目前最大的定制芯片设计商,为谷歌、Meta、字节跳动等客户提供定制化芯片服务,也将继续受益于定制AI芯片的高增速。
2、芯片制造公司(台积电)
在芯片制造环节,台积电是主要受益者。预计2024年,AI收入占比升至11%,在2027年,将达到20%以上。主要因为,AI芯片对先进制造工艺的需求增加,2nm、3nm、5nm的晶圆价格预计将继续上升。
最近,台积电2nm制程工艺也取得重大突破。相较前代N3E,N2工艺在相同功率下实现10~15%性能提升。新工艺采用Gate-all-around FETs(GAAFET)、NanoFlex技术,晶体管密度提升15%。每片2nm晶圆价格超3万美元,高于之前预期的2.5万美元,是4/5nm的两倍。台积电的技术本身就领先三星、英特尔等,此次突破,将有效巩固技术壁垒。
3、高端内存公司(海力士、三星、美光)
高端内存HBM作为AI芯片的重要组成部件,需求也大幅提升。市场预计2024年HBM消耗量高达78亿GB,同比增长+140%。其中,大部分被英伟达获得,占44%;谷歌获得31%,AMD获得13%。预计2023~2027年,HBM市场规模CAGR为103%,海力士、三星、美光是HBM前3大厂商,因此受益。
4、DC交换机公司(ANET、英伟达)
DC交换机主要用于连接数据中心的AI芯片,支持数据中心的运作。2023年,DC交换机收入增长+27%。预计此后增速逐步恢复正常,仍保持中等两位数增速,2024年为13%,2025年为17%。在2023~2027年,大规模云服务商的增速会更快,CAGR达33%,而企业客户增速仍比较稳定,CAGR达10%。企业客户在2024年仍能保持59%市场份额。
市场份额上,思科占比自2022年来,持续下降,预计在2025年趋于稳定。Arista Networks(ANET)、英伟达近年实现市场份额增长。2024年,英伟达市场份额达25%,2025年将进一步增长。主要因为,这些公司在数据中心业务中,紧密配合云服务商,搭建起AI芯片服务器,从而获得高增长。
5、网络基建公司(ANET、博通、英伟达)
以太网、InfiniBand在2023年都实现快速增长,因为这些网络基建帮助AI芯片服务器实现高速连接,从而分享AI行业的高增长。市场预计,随着云服务商逐渐倾向于定制自己的AI服务器,获得更大的自由度,以太网将逐渐从InfiniBand中获取更多市场份额,而ANET、博通将是主要受益者。因为,InfiniBand是英伟达的产品,虽然速度快,丢包少,但价格昂贵,且无法按需要定制。而以太网能解决这个问题,虽然稳定性、速度略差。而InfiniBand在2025年仍有60%左右份额。
三、AI硬件需求
AI硬件需求,主要还是各大科技公司。2023年,微软占32%,谷歌占14%,亚马逊占12%,Meta占7%,共占65%。但到了2024年,大科技公司虽仍是主要买家,但占比减少,微软占11%,Meta占11%,亚马逊占9%,谷歌占9%,共占40%。
对于英伟达最新的GB200芯片需求,微软占40%,亚马逊占26%,谷歌占10%,Meta占7%,共83%。
目前,科技巨头的Capex/EBITDA比率在40%左右,Capex/Revenue比率维持10~25%之间,仍很健康。预计未来变化不大。因此,大科技公司的Capex将大致维持与收入增速同等水平,约10~20%增长。而市场预期2023~2027年,AI芯片市场CAGR为47%。两者相差巨大,未必能实现。除非科技巨头的收入增速增加,或者Capex/EBITDA比率增加,才有可能达到市场预期。
四、AI采用率、收入、成本
从目前调查看,ChatGPT、Gemini(Bard)、Bing Chat在美国地区的采用率还较低。每月使用ChatGPT的受访者为30%,每月使用Gemini的受访者为24%。预计2024年AI应用收入规模约50亿美元。相比2024年1500亿的AI芯片资本投入,占比约3%,可谓杯水车薪。
下一代模型GPT-5,将有15万亿个参数,使用超70万亿Tokens,训练需要约63亿exaFLOPs(1exaFLOP = 10的18次方FLOP)算力。据此,估计训练GPT-5的GPU成本可能高达13亿美元,而训练GPT-4的GPU成本为3亿美元。单单GPU成本就需13亿美元,还不算其他硬件、电耗、人工成本,未来更先进模型的资本支出巨大。
目前AI应用采用率、收入,仍然无法支撑起AI的高投入成本。市场对AI芯片的高增速预期,对AI硬件需求的可持续性,仍然有巨大挑战。
五、总结
对目前AI应用普及率低的问题,科技公司们也心知肚明。OpenAI在近期完成了66亿美元融资,预计这笔资金将用来开发GPT-5,还有用于推广、普及OpenAI应用。对投资而言,还需密切关注AI应用、模型的更新情况,看是否出现情况好转。
参考资料:
1.Morgan Stanley,《TMT Webcast: Prefer AI Semis to Traditional Memory, PC, and Cloud; Upgrade ASE to OW》
2.Morgan Stanley,《Greater China Semiconductor: Memory cold, but AI Semi still warm》
3.Barclays,《AI Backend Powering Healthy Double-Digit Growth for DC Switching》