
摘要
针对AI算力爆发引发的互连瓶颈,本文深度探讨集群互联的技术现状、面临的核心挑战,重点剖析下一代智算中心XPU扩展的光解耦技术演进,通过分析传统电气互连在功耗与性能上的局限以及算力扩展的互连需求,对比从可插拔模块到共封装光学(CPO)及封装内光I/O(OIO)的技术路径、带宽密度与能效优势。通过架构协同、制造工艺突破及开放标准建设,光解耦技术将重构智算基础设施,支撑算力集群的弹性扩展与高效运行。
关键词
智算中心;XPU扩展;光解耦;共封装光学(CPO);封装内光I/O(OIO)
1 引言:AI算力革命催生的互连瓶颈
1.1 时代背景:AI的算力需求爆炸
随着大语言LLM模型技术的发展,参数规模呈现爆炸式增长,算法架构也在原Transformer基础上,不断涌现各种扩散模型、专家系统(MoE),推动智算中心集群朝着更大规模组网,更强算力扩展,以支撑LLM的持续演进。
但是伴随算力提升,背后承载的超节点功率密度、高速链路布线、更大的Scale Up组网规模,已经逼近机柜功耗承载、铜缆数据交换的速率/传输距离的极限。同时未来随着PD分离、A/F分离架构的不断深化演进,XPU异构资源的池化部署和全栈调优的需求日益迫切。
在极致能效、极致算效的驱动下,XPU(包含GPU、NPU、TPU、ASIC等各类处理器)架构进一步朝着解耦方向推进,智能算力也加速从当前的集中式,未来走向分布式。新一代的光互联,在高密度高带宽、低功耗、部署配置灵活性等关键路径上都在形成强大的技术优势。

图1 AI算力需求增长 vs 摩尔定律
如图1所示,我们正处在一个由人工智能驱动的计算革命时代。特别是大型语言模型的飞速发展,对计算资源的需求已被推向前所未有的指数级增长。据业界研究,AI训练所需的算力大约每3-4个月翻一番,显著快于摩尔定律。这种爆炸性需求的增长,正将现有数据中心的基础设施推向其物理极限。
与此同时,当前性能扩展的核心瓶颈也已悄然转变。过去,性能提升主要依赖于在芯片上集成更多的计算单元;如今,瓶颈已从计算密度转向了数据互连。在现代AI集群中,集群互联能力,而非单芯片的算力性能,已成为决定整体性能的关键因素。这意味着,系统性能由于通信瓶颈,难以随算力规模实现线性扩展,甚至将出现性能递减。
本文将探讨集群互联的技术现状、面临的核心挑战、创新的解决方案,并展望其在未来AI基础设施架构的演进。
1.2 传统电气互连的功耗墙与性能天花板
长期以来,基于铜线的电气互连是数据中心内部通信的核心。然而随着信号传输数据速率的不断攀升,这一传统技术正面临着根本性的“功耗-性能墙”。当SerDes速率攀升至224G PAM-4甚至更高的448G时,铜走线的物理损耗由于趋肤效应,呈指数级增加,信号衰减问题将变得异常严峻和难以逾越。
为了补偿这种严重的信号衰减,传统的可插拔光模块(或者相应的Retimer驱动芯片等器件)必须依赖高性能数字信号处理器(DSP)进行信号补偿。其虽然能够维持信号完整性,但也伴随着大量供电损耗。在未来的高速网络交换中,I/O功耗甚至可能超过处理器核心本身的功耗。这无疑形成了一个无法回避的话题:为提升带宽而增加的功耗,反过来限制了系统的整体扩展能力,并带来能效瓶颈。
研究人员运用Roofline模型分析,为这一瓶颈提供了有力的数据证明。模型揭示,当前主流的大语言模型工作负载,如最新发布的GPT5和Llama模型,实际上是带宽受限而非计算受限。如图2所示,光学互连将极大提升通信带宽(相较于以NVLink为代表的现有技术),从而提升大语言模型整体性能天花板。

图2 算力密度与性能瓶颈的Roof Line模型
电气互连在物理定律面前已显现出其性能瓶颈。正是这一根本的物理极限,推动着整个行业向一场革命性的技术转变迈进——将光学器件以前所未有的紧密度集成到芯片封装之中,从而开启一个全新的光子互连时代。
2 AI集群架构演进
要准确把握光互连技术的应用场景和发展脉络,必须首先理解现代AI数据中心的核心组网架构:Scale-Up(南向扩展)。这种架构在微观层面定义的不同互连需求,催生了共封装光学(CPO)和封装内光I/O(OIO)等近芯片光学技术。其中CPO技术主要聚焦于交换芯片与XPU芯片间,而OIO主要聚焦于XPU芯片内DIE间互连。
3 光学集成之路:从CPO到OIO的技术演进
解决互连瓶颈的核心,是在物理空间上将光学器件与XPU拉近。距离越短,电气链路的损耗和功耗就越低,系统的整体能效也就越高。从当前主流的可插拔模块,到共封装光学(CPO),再到革命性的封装内光I/O(OIO),将逐渐成为光学集成的技术演进路线。
3.1 技术路线的演进
光学与电子的集成是一个逐步深化的过程,其核心目标是缩短高速电信号的传输距离。

图3 高速光互连技术演进
1)可插拔光模块 (Pluggable Optics)
当前数据中心最主流的方案,光模块通过连接器插入到交换机或服务器的前面板
核心价值与局限:标准化的接口和现场可维护。然而,随着速率提升,其功耗急剧增加,并且面板物理空间限制了端口密度,成为带宽扩展设计的瓶颈。
2)共封装光学 (Co-Packaged Optics, CPO)
CPO是一种先进的封装技术,它将光学引擎与芯片集成在同一个基板(Substrate)上。
核心价值:其主要目标是替代可插拔光模块。通过将光学引擎与芯片并排放置,极大地缩短电信号传输路径。这一变革显著降低了对高功耗 DSP 的依赖,通过缩短电学路径允许采用更低功耗的线性驱动(Linear Drive)方案,从而显著降低了I/O功耗和误码率。
3)封装内光I/O (In-Package Optical I/O, OIO)
OIO是一种基于芯粒(Chiplet)的光互连解决方案,它将光学I/O芯粒直接集成在芯片封装内部。
核心价值:OIO专为高密度、低延迟的近封装芯片间互连而设计,特别适用于Scale-Up架构下的XPU互连。其目标是实现与封装内电气互连(如UCIe)相当的带宽密度、能效和延迟,同时具备光信号长距离传输的独特优势。使得构建跨多机架的超节点集群高性能组网成为可能。

图4 CPO与OIO性能对比
4)技术融合趋势
最初,CPO主要面向网络交换,如当前的交换机芯片的发展:Broadcom以及NVIDIA的以太交换芯片CPO共封装的应用,而OIO则专注于XPU芯片DIE间互连。
根据Ayar Labs的分析,随着CPO封装密度提升和热管理优化,其也开始被探索用于XPU集群内部互连,CPO与OIO之间的界限正逐渐模糊,都开始趋向于采用类似的共封装架构。这种趋同性表明,共封装架构已成为高性能光互连的共同演进方向。
3.2 核心技术方案对比分析
为了更直观地理解不同互连技术的优劣,下表对电气互连、CPO和OIO进行了如下对比。
表1三种互连技术对比

从量化指标上看,OIO相较于CPO具有压倒性的密度优势。OIO在岸线带宽密度(shoreline bandwidth density, Tbps/mm)和面积带宽密度(area bandwidth density, Tbps/mm²)这两个关键性能指标上,均比CPO高出近一个数量级。
这种密度跃迁使得I/O不再成为封装面积的主要瓶颈,从而允许在相同封装内集成更多计算单元或HBM,实现系统级性能跃升,从根本上改变基于芯粒的系统设计的权衡取舍。

图5 Photonic Fabric 封装示意图

图6 Ph otonic F abric 光互连示意图
以Celestial AI提出光子网络计算平台(Photonic Fabric™)为代表的解决方案,展现了更为宏大的愿景。该平台不仅提供连接(PFLink™),还包括光交换(PFSwitch™)和封装(OMIB™)等全栈式技术,旨在为Scale-Up组网提供端到端解决方案。不过,要将这些先进的技术构想转化为可靠的商业产品,业界必须攻克一系列严峻的技术挑战。
4 核心使能技术与关键挑战
实现CPO和OIO从实验室原型到大规模商业化部署,需要克服一系列跨越材料科学、器件物理、先进封装和热力学的重大工程挑战。任何一个环节的短板都可能成为整个技术路径的关键瓶颈。

图7 光互联商业化落地的挑战
要成功驾驭这场技术浪潮,将光子互连的巨大潜力转化为可持续的商业价值,还需解决以下问题。
1)架构协同优化:XPU的设计需转向将ASIC、光学I/O芯粒和散热方案视为整体的一体化设计。只有通过这种跨领域的协同优化,才能有效管理极高密度下的热串扰问题,充分释放近芯片光学的性能潜力。
2)制造与供应链成熟度:加速2.5D和3D异构集成工艺的成熟,特别是攻克III-V族激光器材料与硅光芯片之间的高良率、高可靠性键合技术。建立一个稳健、可扩展且具备多源供应能力的制造生态系统,是实现CPO/OIO大规模、低成本部署的基石。
3)开放标准与生态建设:在追求极致性能定制化的同时,行业必须积极拥抱和推动如UALink/SUE-T等开放标准。通过建立标准化的接口和协议,在满足高性能需求与多源供应之间取得平衡,有效规避被特定供应商锁定风险,促进一个健康、繁荣且富有竞争力的产业生态系统的形成。
5 产业格局与巨头战略布局
CPO/OIO领域的竞争远非单纯的技术之争,它更是一场关乎生态系统构建、供应链控制和商业战略的深度博弈。参与者不仅包括传统的计算和网络芯片巨头,还有专注于光互连的新兴力量。
NVIDIA:深度垂直整合,视光互连为SoC核心
NVIDIA采取了最为激进的垂直整合战略,旨在将其端到端的AI计算平台优势延伸至网络层面。光互连不是一个外部附加模块,而是未来SoC不可或缺的组成部分。这一策略的核心目标是实现无缝、超低延迟的GPU间连接,构建强大的算力集群,从而巩固其在AI基础设施领域的领导地位。
AMD:稳健推进与开放生态并行
AMD的战略则显得更为稳健和开放。一方面,公司通过发展先进的SerDes技术和不断演进的Infinity Fabric互连架构,致力于最大化现有电气互连的性能潜力。另一方面,AMD自2017年起就积极投资硅光子研发,为未来将光学连接集成到其Instinct GPU系列铺平道路。更重要的是,AMD积极主导了UALink等开放行业标准,旨在构建一个灵活、多供应商的AI生态系统,与NVIDIA的封闭体系形成差异化竞争。
光互连的新兴力量
与巨头们不同,Ayar Labs和Celestial AI等专业光互连企业则专注于技术壁垒最高的细分市场。它们的核心产品是高性能的OIO芯粒和全栈式的光互连网络计算平台。这些公司的战略目标是为XPU之间的数据交换提供极致性能的解决方案,通过提供差异化的核心IP和产品,在生态系统中占据关键一环。
6 未来展望:商业化路径与标准化挑战
尽管CPO和OIO技术描绘了未来蓝图,但其从技术验证走向大规模商业化的道路依然充满挑战。这不仅需要突破制造工艺和成本效益的瓶颈,还需在快速发展的市场中建立行业标准。
商业化部署的时间线
根据行业专家的预测,CPO和OIO的商业化部署将遵循三阶段路线图,其核心驱动力是解决特定应用场景下的迫切需求。
基于当前CPO原型进展、硅光良率提升速度及AI集群功耗增长趋势,CPO将在集群网络互连引领第一波浪潮。
届时,随着AI工厂的规模和功耗持续膨胀,传统互连方案的能耗和延迟瓶颈将变得无法容忍。CPO技术凭借其在传输损耗和延迟方面的根本性优势,将成为维持AI基础设施可持续扩展的唯一可行路径,从而推动市场的广泛采用。
算力与存储基于最底层的统一物理协议接口,通过光互连网络实现真正意义上的资源池化随着光互连技术的进一步成熟。

图8 光互联商业化部署的三阶段路线图
光互连作为革命性的技术平台,需要整合和解决连接、交换和封装挑战。它将使跨越多机架的数千颗XPU组成的集群,能够像一个巨大的、逻辑、统一的超级芯片一样无缝协同工作。这一根本性的架构重塑,是解锁未来AI潜力的关键。
7 未来展望
为应对人工智能驱动的数据洪流,数据中心基础设施正在经历一场从电气到光学的根本性转变。在这场变革中,以CPO和OIO为代表的近芯片光学集成技术,已不再是遥远的愿景,而将成为支撑下一代AI计算能力持续扩展的必然选择。



浙公网安备 33010802004375号