欢迎user
算力需求的爆炸式增长带来高密度数据中心建设需求的激增,一个数据中心内的高功耗芯片数量大幅提升必然带来对于PUE要求的严峻挑战。这场由算力需求与节能目标共同驱动的效能革命倒逼数据中心机房设施建设的再一次进化,除了更高效的散热技术进阶,还包括面向高密度、集约化部署需求的形态革新。
液冷整机柜方案
一机破解高密度与高功耗的双重困境
面对算力需求激增、机房空间有限、传统风冷技术在高功率密度下已趋近极限的多重困境,同时为满足数据中心快速部署、高效运维和成本优化的迫切需求,紫光股份旗下新华三集团推出面向通用计算、智能计算场景的高密液冷整机柜和AI液冷整机柜解决方案,以“超高密度、极简运维、高速互联、极致液冷”多重优势,满足国家对于高性能算力需求持续增长下的数据中心PUE要求。
新华三液冷整机柜解决方案
■超高密度部署
新华三高密液冷整机柜方案采用1U2N高密度服务器架构,单U空间内实现双节点四路部署,整柜最高可配置64台节点,形成8192核的集群算力输出。方案设计前瞻性地支持高达200kW及以上的整机柜功率规格,充分兼容未来更高功耗计算设备的演进需求;新华三AI液冷整机柜单柜最多部署64张高性能AI加速卡,单柜算力可达传统形态下8台8卡服务器。
除此之外,相较于RU (Rack U, 44.45mm)和OU(Open U,48mm)的整机柜形态,新华三液冷整机柜的SU(Scorpio U, 46.5mm) 形态遵循了ODCC ETH-X规范,通过优化空间布局显著提升了I/O扩展能力, 成功地在1U高度内满足了高性能网卡、OAM卡冷板散热模块等关键组件对空间的严苛要求,有效避免了因布局过于紧凑带来的散热或安装问题,从而大大提升了节点硬件的未来可迭代性和升级潜力。与此同时,整机柜采用池化的集中供电单元(Power Shelf)设计,内置的PSU支持N+2冗余,兼容3.3kW和5.5kW双输入,这种集中供电设计在大幅降低传输损耗的同时,显著减少了传统分散式电源等辅助设备对机柜空间的占用。
■极简运维体验
新华三液冷整机柜创新性地实现了水、电、网三总线“盲插”:水路方面,服务器节点的冷板进出水管路通过UQDB型快接头与机柜内Manifold实现可靠盲插连接;电路方面,供电系统采用集成铜排(Busbar)设计,遵循ORV3 Busbar规范,服务器节点通过盲插方式直接与机柜Busbar连接取电;网络方面,通过高速铜缆组成的Cable Tray实现芯片、节点间的互联,彻底免除了传统跳线步骤,从而实现快速部署。液冷整机柜的盲插设计通过简化架构降低了系统故障点,操作人员只需将服务器节点平稳推入机柜指定位置,水路、电路和网络的连接即可自动、精准地一次完成,这极大地简化了整个安装和维护流程,有效减少了维护所需的时间和工作量。随着算力中心向自动化、智能化方向转型,盲插设计更契合未来的发展方向。
传统数据中心部署需现场组装、理线、调试,耗时较长,得益于工厂预制化生产并整柜运输的交付模式,新华三液冷整机柜方案将90%工序前移至工厂,用户可实现开箱即用的一站式部署,极大缩短了业务上线周期,降低综合成本的同时优化了系统可靠性。
■高速互联保障
优秀的互联系统能消除通信瓶颈,显著降低数据传输延迟,确保大规模计算的高效协同。新华三AI液冷整机柜单柜内可容纳32/64张AI加速卡,卡间互联带宽提升高达8倍,大幅提高AI大模型训练、推理效率;高密液冷整机柜内集成Spine-Leaf架构国芯网络设备,整柜自主可控的同时,通过高速率背板带宽实现大规模智能科学计算集群下的高速无阻塞网络互联。
■极致液冷散热
新华三液冷整机柜方案将高效散热覆盖至CPU、GPU、内存等核心热源,实现了整柜高达75%-80%的液冷散热占比。整机柜采用了双重防泄漏保障机制,在单节点层面,机箱设计了专门的疏液导流结构,有效防止液体无序扩散,保护内部IT设备安全;同时,机箱内部关键位置(如冷板、接头和管路)部署了绳状泄漏检测传感器,可即时感知泄漏并发出警报。在整机柜层面,单个节点的疏水设计确保泄漏液体不会影响相邻节点,泄漏液会沿机箱结构流入机柜导流槽,最终汇集至机柜底部的积液盘。积液盘同样配备泄漏检测传感器,实现了对整个机柜液体泄漏路径的全程监控与防护。除此之外,整机柜还预留可选的液冷背门模块设计,在进一步提升液冷散热比例和整体冷量输出的同时,提升了系统的安全可靠性。
新华三 “ALL in GREEN”全栈液冷解决方案通过冷板式与浸没式技术路线的双重布局,实现了从节点、机柜到数据中心的全链条产品覆盖,并打造了数据中心全生命周期的服务体系,助力客户构建高可靠、高能效、智能化的数据中心。液冷技术的进化,是算力中心从高耗能向近零碳转型的写照,它不再仅仅是散热手段,更是支撑数字经济绿色发展的关键基础设施。未来,新华三将持续投入液冷产品的创新与突破,推动数据中心的“绿色”升级和“冷静”发展。