
OCP Conference Focus: Manufacturing and packaging have significantly expanded production, AI chip bottlenecks have shifted downstream, including memory, racks, power, etc

摩根士丹利研报指出芯片制造和封装环节通过大规模扩产,已不再是制约 AI 发展的核心矛盾。真正瓶颈转移至数据中心电力、液冷、HBM 内存、机架和光模块等基础设施。投资机会从晶圆代工扩散至下游供应链,拥有电力和空间资源的数据中心将在 AI 算力竞赛中占据优势。
本文作者:鲍奕龙
来源:硬 AI
2026 年 AI 半导体行业将迎来又一强劲增长年,但 AI 硬件领域的投资逻辑正在发生深刻转变。
10 月 20 日,摩根士丹利研报指出,过去两年,市场焦点一直集中在台积电的 CoWoS 封装和先进制程等上游产能瓶颈上。
然而,根据英伟达、台积电的最新表态以及 2025 年 OCP 大会释放的信号,这一局面已经改变。芯片制造和封装环节通过大规模扩产,已不再是制约 AI 发展的核心矛盾。
摩根士丹利强调真正的瓶颈正在向下游转移,集中在数据中心空间、电力供应、液体冷却、高带宽内存(HBM)、服务器机架和光模块等配套基础设施上。
研报认为,这意味着投资机会正从上游的晶圆代工和封装,扩散至更为广阔的下游供应链。未来,无法获得充足电力和物理空间的数据中心,将成为 AI 算力竞赛中的掉队者。
上游产能不再是唯一瓶颈,芯片制造与封装已大幅扩张
曾几何时,市场对 AI 芯片能否足量供应充满疑虑,而台积电的 CoWoS 先进封装能力被视为关键瓶颈。然而,最新的行业动态显示,这一情况已大为改观。
台积电在其近期财报会议上透露,“AI 需求比我们三个月前想象的还要强劲”,公司正努力 “缩小供需差距”。重要的是,台积电表示其扩充 CoWoS 产能的前置时间仅需 6 个月,这给予了供应端极大的灵活性。
尽管其 4nm 和 3nm 等先进节点的晶圆前端产能依然紧张,但 AI 半导体显然拥有比加密货币 ASIC 或安卓智能手机 SoC 更高的优先级。
英伟达 CEO 黄仁勋也在近期的交流中明确表示,半导体产能已不再是过去那样的限制因素。经历了几年前的需求激增后,整个供应链的制造和封装环节已经 “实现了大幅扩张”,公司有信心满足客户需求。
综合来看,虽然总需求持续高速增长,报告预测 2026 年全球 CoWoS 总需求将达到 115.4 万片晶圆,同比增长 70%,但供应端的快速响应能力已显著增强。
瓶颈转移,下游基础设施成为新的挑战
当芯片供应不再是最大难题时,瓶颈自然向下游转移。
英伟达指出,当前更大的制约来自数据中心空间、电力和配套基础设施的可用性,而这些领域的建设周期远长于芯片制造。
OCP 大会的内容也印证了这一趋势。随着 AI 集群规模迈向 “十万级 GPU”,整个数据中心的设计理念正在被重塑:
电力与散热:
- 大规模 GPU 集群的部署意味着巨大的电力消耗和散热挑战。OCP 大会上,液冷已成为新 AI 机架的默认配置,而高压直流(HVDC 800V)等供电方案的需求也日益增长。
- 这使得像 Aspeed 这样的公司受益,其 BMC(基板管理控制器)不仅用于服务器,还扩展到了包括冷却在内的多种设备上。
存储与内存:
- AI 工作负载对数据存储和访问速度提出了极致要求。Meta 明确表示,出于成本考虑,其数据中心将优先采用 QLC NAND 闪存。与此同时,希捷提到,HDD(机械硬盘)仍将保持 95% 的容量在线,以满足大型和远程数据中心的需求。
- 更关键的是,对 HBM(高带宽内存)的需求正呈爆炸式增长,报告预测,到 2026 年,全球 HBM 消耗量将高达 260 亿 GB,其中英伟达一家就将消耗 54% 的份额。这种高度集中的强劲需求,使得 HBM 的供应成为影响 AI 服务器出货的关键变量。
机架与网络:
- 为了实现超大规模部署,OCP 推出了 “AI 开放数据中心” 和 “AI 开放集群设计” 等标准化蓝图,涵盖机架、液冷、电源接口等。
- 在网络方面,阿里巴巴表示可插拔光模块(Pluggable Optics)因其总拥有成本和灵活性依然是首选,而 LPO(线性驱动可插拔光模块)等技术也正获得关注。
- CPO/NPO(共封装/近封装光学)预计将在 2028 年随着制造工艺成熟而实现。
需求预测预示下游组件迎来爆发式增长
下游基础设施的重要性,可以从需求预测数据中得到验证。
摩根士丹利的分析师预计,2026 年全球云服务资本支出将同比增长 31%,达到 5820 亿美元,远高于市场普遍预期的 16%。
此外如果假设 AI 服务器在资本支出中的占比提升,这意味着 2026 年 AI 服务器的资本支出可能实现约 70% 的同比增长。
从需求端看,各大 AI 巨头仍在疯狂 “囤货”。报告详细拆解了 2026 年的 AI 芯片需求:
- CoWoS 产能消耗:英伟达预计将占据 59% 的份额,其次是博通(18%)、AMD(9%)和 AWS(6%)。
- AI 计算晶圆消耗:英伟达以 55% 的份额遥遥领先,其次是谷歌(22%)、AMD(6%)和 AWS(6%)。
总结而言,OCP 大会传递出的信号与产业链数据交叉验证,清晰地指明了 AI 硬件投资的新方向。在芯片制造和封装环节的产能瓶颈逐步打开后,市场的焦点必然会转向那些支撑超大规模 AI 计算的基础设施。
研报认为对于投资者来说,这意味着需要将视野从单一的芯片公司,扩展到整个数据中心生态系统,寻找在电力、散热、存储、内存和网络等下游环节具备核心竞争力的 “卖铲人”。
