QYJS    前沿技术
前沿技术
从技术破局到规模应用:AI技术发展趋势预判及关键技术挑战
文 | 新华三集团技术委员会先进技术研究部 张兵

摘要

2022年,生成式大模型带动AIGC生态快速崛起,推动人工智能发展重心转向技术迭代、应用落地与基础设施升级,深度赋能各行业。与此同时,大模型在算力、联接、存储、应用平台等核心环节仍存在诸多痛点,当前行业正依托全栈协同技术探索破局路径。本文将深入剖析人工智能的发展趋势、现存痛点、核心关键技术及未来发展方向。

关键词

大模型;生成式AI;AI基础设施;算力;存算一体;智能体;全栈协同

引言

当前,从大模型多模态融合创新,到算力基础设施全面重构,从垂直行业深度渗透,到跨学科技术跨界融合,人工智能正从专用领域向通用能力加速演进,进入技术突破与规模化落地并行的关键阶段。

1 大模型引爆变革:从技术探索到规模化落地

随着ChatGPT、DeepSeek等生成式大模型的出现,彻底激活了AIGC生态,推动人工智能从实验室技术摸索走向产业实用化阶段。2026年,全球大模型领域持续爆发增长,技术重心从“参数规模竞赛”转向技术迭代、应用提速、基建升级与商业爆发并行的新阶段。

在技术层面,MoE混合专家模型、模型量化、知识蒸馏等关键技术与芯片硬件升级有机结合、协同增效。高性能G

图1 大模型领域发展全景

PU与ASIC专用AI芯片为大模型训练提供强大算力支撑,低功耗边缘芯片则适配轻量化推理场景,在控制参数规模的同时提升训练与推理效率,为轻量化部署奠定基础。同时,大模型实现多模态融合、长上下文理解、复杂逻辑推理与世界模型构建,推动AI从感知向认知升级。部署落地环节,云边端协同架构日趋成熟,轻量模型加速渗透终端,多智能体协作与行业专用模型不断涌现,更精准匹配各类场景需求。

在应用层面,大模型技术正加速向各行业渗透,应用落地成效显著。人工智能正加速重构药物研发、量子物理等基础科研范式,成为科研创新的核心驱动力;智能技术全面渗透百行百业,覆盖内容创作、生产调度、客户服务、流程优化等场景,持续释放技术价值。与此同时,安全与治理成为产业发展底线,行业以主动防御、合规对齐为核心,构建完善的安全与伦理治理体系,护航产业健康有序发展。

大模型的爆发式增长驱动AI基础设施全面升级。全球算力需求呈指数级上升,xAI、OpenAI等海外头部企业纷纷加码超大规模GPU集群建设,抢占算力核心优势;国内依托“人工智能+”行动计划,聚焦六大重点领域与八项关键基础能力,推动AI技术与经济社会深度融合,加快从AI技术大国向产业强国迈进。

生成式AI正处于商业投资的黄金期,成为全球资本追逐的核心热点。2025年全球该领域投资额达3970亿美元,同比增长25.7%;预计2030年,智能终端与AI智能体的普及率达到90%,产业渗透率持续提升。ToB市场成为爆发核心,2025年国内大模型中标项目数量、金额同比分别增长3.96倍、3.56倍、互联网、金融、制造等领域应用趋于成熟,医疗、教育、能源等行业加速渗透,形成“技术赋能场景、场景反哺技术”的正向循环,推动大模型从概念走向规模化落地。

2 大模型发展困境:核心痛点与基础设施新需求

随着大模型技术与生成式AI爆发式增长,技术演进呈现规模定律持续生效、算法与硬件深度协同、工程化能力成为核心竞争力、安全治理体系逐步完善、AgenticAI向通用智能迈进五大趋势。同时对算力、联接、存储、应用平台等核心能力提出了全新的挑战。

图2 大模型发展的整体挑战

算力方面:模型参数、并行计算规模、实时推理需求激增,叠加功耗与边缘部署限制,亟需高算力、高效能的软硬件协同方案。训练场景受高端GPU供给、成本及国产生态制约;推理场景差异大、软硬件适配成本高;评估场景缺乏专用芯片,性能难精准量化。核心痛点是资源消耗大、适配弱、评估难,芯片技术与生态优化是破局关键。

联接层面:网络需从传统通用网络升级为支撑超大规模算力集群的智能底座,面临流量爆炸、延迟敏感、大规模组网与能耗攀升等多重挑战。

存储层面:大模型训练与推理过程中产生的海量数据,让存储体系面临容量不足、带宽瓶颈、IO延迟高、可靠性与能效压力等问题。

应用平台:大模型爆发使应用平台面临多框架兼容、异构算力调度、工程化落地难度大、安全合规压力突出等技术难题,同时还面临场景匹配度不足、模型可靠性待验证、成本与收益难以平衡的行业落地困境,叠加智能体自主决策、多任务协同、跨场景交互带来的新挑战,共同制约了大模型的规模化推广与应用。

3 大模型技术破局:从单点突破迈向全栈协同

当前,人工智能技术正从单点突破迈向全栈协同演进,算力、联接、存储、AI应用平台等底层基础设施持续迭代,应用平台与安全体系不断完善,推动技术创新与产业落地深度融合,加速AI从技术创新走向规模化价值释放。

1)算力层:计算芯片与模型技术协同演进

图3 计算芯片与模型协同演进架构

计算芯片作为算力核心,其架构创新与性能升级直接决定大模型、推理优化等技术的落地上限,当前呈现“专用化、异构化、协同化”的发展趋势,与上层算法形成双向驱动。

架构呈现多路线竞争格局:GPU凭借强并行能力主导大模型训练与通用推理场景,高端产品通过多级存储重构、近存运算适配MoE动态专家调用;ASIC/TPU聚焦推理,以定制化电路设计实现超高能效比,适配投机推理、稀疏计算等优化算法,以灵活性优势,支撑轻量化模型部署。

技术升级聚焦算力密度与能效优化:台积电N3E大规模量产、N2进入试产,3D异质集成与CoWoS封装可实现2颗SoC+12颗HBM集成,晶体管数量突破万亿级;HBM3E规模化商用突破内存带宽瓶颈,单引脚I/O速度达8Gbit/s、总带宽超500GB/s,配合后训练量化、稀疏KVCache等技术显著缓解显存压力。

国产芯片加速崛起,自主IP核与定制化架构使其在国内推理市场份额已超30%,并通过与飞桨等开源框架深度适配,构建“芯片-框架-应用”完整生态闭环,推动算力技术自主化落地。

2)联接层:高带宽低时延的互联体系重构

随着集群规模持续扩大,系统对超高带宽、超低时延的互联网络需求激增,行业通过横向扩展(Scale-out)与纵向增强(Scale-up)双路径协同推进,结合新型通信协议与自研网络芯片,构建高效、可扩展的互联生态。

图4 高带宽低时延的互联架构

Scale-out通过增加节点数量支持大规模分布式训练,端网融合RoCEv2优化成为主流创新技术,来解决大规模集群组网带来的负载不均和网络拥塞问题;Scale-up则提升了超节点内多加速器间的协同效率,突破性能瓶颈。下一代以太网标准SUE构建面向XPU的高速互联框架,利用成熟生态的以太网为根基,构建XPU之间的高速互联,并支持内存语义的高效数据存取;UALink成为当前产业生态支持最多的开放式Scale-up协议,原生支持内存语义,并将物理层替换成支持更高速率的以太网serdes,来满足XPU之间高速数据传输的需求。

3)存储层:异构融合与存算一体突破内存墙

图5 存储层技术架构

行业存储方案采用分层架构与智能调度,实现性能与成本的优化平衡。缓存层面,分级KVCache池融合量化、稀疏化技术,有效提升缓存命中率;基于CXL协议构建的TB级共享内存池,为集群提供高带宽、低延迟的弹性内存资源。

异构存储介质统一管理、存算一体化架构、近存计算三大技术推动存算边界深度融合。其中,异构存储介质统一管理实现多类型存储资源的高效协同;存算一体化架构将计算逻辑嵌入存储单元,从根本上减少数据搬运;近存计算借助2.5D/3D芯片堆叠技术大幅缩短数据传输路径,显著提升带宽,有效突破内存墙限制。

4)AI应用平台:构建高效、安全的应用平台

图6 AI应用平台技术架构

智能体应用平台是AI从“内容生成”转向“任务行”的核心载体,以分层模块化架构实现全链路赋能。基础设施层支撑异构算力调度,核心引擎层完成多模型适配、推理加速与记忆协同,智能体层实现任务规划、工具调用与多体协作,应用使能层以低代码降低开发门槛,运维治理层保障安全合规与成本管控。核心突破包括LangGraph/AutoGen等任务编排、MCP(Model Context Protocol)协议工具生态、向量数据库记忆增强及全链路可信治理。主流平台差异化覆盖金融、政务、云原生、中小企业等场景,落地中以低代码、多体编排、RAG增强提升效率。

5)基础设施与产业落地:全栈协同赋能百行百业

图7 AI基础设施与产业落地良性循环生态架构

基础设施正加速向集群化、标准化演进,整合算力、网络、存储资源并通过统一调度提升利用效率,与产业场景深度融合形成“技术-设施-应用”良性循环。产业落地呈现高度场景化与深度集成特征,已在金融、交通、能源、医疗等领域实现规模化应用:金融行业构建AI风险管控体系,交通行业开展自动驾驶安全测试与仿真验证,能源行业推行“可解释AI+专家规则”双校验机制,医疗行业聚焦模型准确性提升以保障临床应用安全。

4 未来展望:从技术创新到规模化价值释放

人工智能正从技术探索阶段,全面进入产业落地的深水区。通过算力、联接、存储、应用平台等关键技术的持续创新,推动人工智能与实体经济深度融合,加速规模化落地进程。

图8 人工智能与实体经济深度融合:四大核心技术底座全景

算力层面:计算芯片正从性能比拼转向能效优先与系统协同,Chiplet、3D堆叠、存算一体突破“内存墙”与摩尔定律瓶颈。GPU主导训练,ASIC、可重构芯片抢占推理与边缘市场,RISC-V、ARM生态持续扩张。安全可信、绿色低碳成设计标配,国产芯片在自主架构与能效上加速突围。未来以定制化、端云协同、生态标准化为主线,支撑 AI、智能体等场景算力需求。

AI联接从管道传输到智能原生网络重构,升级为具备自感知、自决策、自优化的网络系统。网络未来在AI系统中不仅仅只是高速联接的作用,而是与AI算力和应用有更深层次的耦合,具备自我优化和演进的能力,能够精准感知AI任务的算力负载、数据流特征进行动态调整,提供低时延、高可靠的传输保障,适配多模态数据交互、实时推理等复杂场景。

存储朝着训推统一、高带宽、高性能、智能分层的方向演进,支持张量、KVCache等新范式,结合多级缓存与RAG技术,有效提升推理效率并抑制模型幻觉。采用分布式架构,可提供百TB级带宽、亿级IOPS及EB级扩展能力,同时实现冷热数据自动分层与能效优化,适配大模型训练与推理的全流程需求。

智能体应用平台将以多智能体协同、垂直行业深耕、低代码普惠为核心,技术上融合多模态、具身智能与数字孪生。人工智能正从虚拟场景加速融入物理世界,通过具身智能、多智能体协同与虚实交互,深度渗透经济社会各行业各领域,推动形成人机协同、跨界融合、共创共享的智能经济与智能社会新形态。

关闭