科技云报到原创。
当英伟达以4万亿美元市值成为AI时代“芯”皇、寒武纪超越茅台登顶A股股王,全球正在迎接AI的高光时刻。
然而,在科技盛世之下,AI行业正陷入一场“看不见的焦虑”。GPT-4训练数据量突破万亿级、自动驾驶汽车单日采集数据达TB级、机器人每一次动作都生成海量多模态数据。多数人将目光聚焦在算力芯片的性能竞赛上,然而却忽略了一个更核心的问题:没有足够强大的“存力”,再顶尖的算力也只是“无米之炊”。
传统存储的传输速度跟不上GPU的计算节奏,导致算力常年处于“等米下锅”的闲置状态。“存不下、传不快、不安全”,已成为AI产业突破瓶颈的三大拦路虎。
就在行业陷入存力困境之时,2023年,曙光存储在业内首次提出“先进存力”概念,打破传统存储“被动存数据”的局限;2024年,又联合IDC发布《构建面向智能化时代的先进存力中心》白皮书,为AI时代的存力建设划定标准。
2025年8月29日,曙光存储副总裁郭照斌在第二届CCF中国存储大会上宣布,曙光“超级隧道”技术可以更好地应对PCIe6.0时代,为下一代国产芯片效能释放提供加速引擎。
从“先进存力”概念提出,到“超级隧道”技术破解传输瓶颈,再到布局PCIe 6.0未来,曙光存储正基于自主技术塑造起以先进存力为的下一个AI增长引擎。
曙光存储副总裁 郭照斌
“先进存力”不止是存数据更是AI第二引擎
提到存储,很多人的第一反应是硬盘、服务器这类硬件载体。但在AI时代,这种认知早已过时。曙光存储提出的“先进存力”,早已超越“存放数据”的基础功能,成为能主动释放数据价值、驱动AI运转的“第二引擎”。
2023年,曙光存储首次提出“先进存力”概念时,就明确了其核心围绕“海量、高效、融合、绿色、安全”五大维度展开,这与传统存储的定位形成了本质区别。
传统存储更像“数据仓库”,只负责接收和保管数据,至于数据如何被高效调取、如何与不同场景适配、如何降低存储过程中的能耗,都不在其考虑范围内。
而曙光提出的先进存力是AI时代的又一关键基础设施。先进存力不仅可以支持EB级存储,轻松装下AI大模型的万亿级训练数据,还能通过AI加速技术,能够让数据调取速度匹配算力需求,避免算力闲置。同时,兼容文件、块、对象等多种协议,无论是自动驾驶的视频数据,还是机器人的传感器数据,都能无缝接入。另外,先进存力采用液冷技术降低能耗,大幅降低存储系统PUE(能源使用效率),更通过全栈自主技术,从芯片到系统层层设防,保障核心数据不泄露。
在白皮书里,先进存力被明确为“数据要素价值释放的核心载体”,它不再是孤立的存储设备,而是与算力、运力(数据传输能力)深度协同的基础设施。
比如在重庆先进数据中心,曙光存储构建的先进存力,一边连接着当地智算中心的数千颗GPU,一边对接企业的生产数据,通过智能调度让数据“按需流动”。当AI训练需要热数据时,数据能够毫秒级直达GPU;训练完成后的冷数据,将自动归档至低成本存储节点,既保证效率又控制成本。
这种协同能力,让先进存力具备了五大核心特征:高效融合,可以兼容多协议,打破数据孤岛;提质增效,AI加速技术提升数据处理效率;全域流动,智能调度让数据在不同节点间无缝流转;安全可靠,全栈自主技术抵御风险;绿色节能,液冷技术降低能耗。
国家气象局的实践就是最好证明,曙光为其构建的横跨三地的存力平台,能够实时同步全国的气象数据,既满足天气预报AI模型的实时计算需求,又能安全归档历史气象数据,同时能耗较传统方案降大幅下降。
对于AI产业而言,先进存力的意义在于,它解决了数据在哪存、怎么传、如何用的根本问题,让算力不再空转,让数据真正成为能驱动AI进化的“燃料”。
“超级隧道”让数据传输“快到飞起”
如果将先进存力视为AI的“第二引擎”,那么曙光存储的“超级隧道”技术,就是让这台引擎飞速运转的“传动轴”,其通过自主可控技术,破解了长期以来数据传输的“卡脖子”难题,让数据从“拥堵慢走”变成“一键直达”。
在AI产业中,长期存在一个认知误区,认为只有靠国外高端GPU才能提升计算效率。但曙光存储发现,传统存储架构中,CPU的性能其实被严重浪费。由于存储与CPU、GPU之间的传输路径存在加锁机制,多个进程会争抢资源,导致CPU算力无法充分释放,最终不得不依赖更多GPU来弥补效率差。
“超级隧道”核心解决的问题就是打破这种依赖,通过激活CPU潜力,降低对国外GPU的依赖,同时减少关键硬件的对外依存度,构建出了一条自主可控的技术路径,这意味着企业无需高价采购国外GPU,也能实现AI性能的提升。
传统存储的传输路径,就像一条单车道加红绿灯的公路,多个CPU核共享同一批资源,就像多辆车抢一条车道,还得等红绿灯(加锁机制),拥堵是常态。
而“超级隧道”则重构了这条公路。它为每个CPU核配备专属车道,构建起从网卡到CPU再到硬盘“一杆子插到底”的无冲突传输路径,彻底去除加锁机制。
具体来说,这个过程分为三步:
首先,为每个CPU核分配独占的网卡、内存、硬盘资源,避免资源争抢。
其次,用AI预测调度技术,提前判断数据的传输需求,让数据“走哪条路”提前规划好。
最后,通过软硬件协同,让数据在传输过程中不跨域、不等待,实现就近访问。
就像快递配送,传统方式是所有快递先到一个分拣中心(共享资源),再进行分发,而“超级隧道”则是每个快递员都有专属配送路线(独占资源),直接从仓库送到客户手中,效率自然天差地别。
从技术手段上看,“超级隧道”的高效不是靠单一技术实现的,而是多维度技术的协同突破,每一项技术都直击行业痛点。
比如,多NUMA/CPU与微控模型,解决了多核效率低难题。传统服务器多采用单CPU,性能强但成本高,曙光则用多NUMA(非一致内存访问)或多CPU提升性能,但多CPU 之间的访问延迟会成为新瓶颈。为此,曙光研发“微控模型”,精准适配硬件特性,让多CPU之间的访问代价降低60%,既提升性能又控制成本。
在软硬件协同方面,曙光存储实现了每个部件各司其职互不干扰。CPU、内存、硬盘采用“分组作业”,每个NUMA域都有自己的“专属网卡”,避免跨域访问的延迟。数据被切分到不同逻辑空间,每个空间对应专属硬件资源,就像多条“垂直隧道”,数据从进入到落地,全程在同一隧道内完成,不与其他数据“抢道”。
曙光存储独有的XIO技术(XNIO/XDIO)融合了无锁轮询与RTC处理,实现数据传输“一键直达”。在任务处理方面,XIO技术可以实现200纳秒协程切换,能够轻松应对百万级高并发需求。在数据传输上,XIO技术省去很多中间步骤,与传统传输方式相比,传输效率提升10倍。
“超级隧道”技术基于无锁架构、极简交互及软硬件协同等核心设计,是当前业内唯一能够充分释放PCIe 5.0性能的存储技术。
PCIe是一种高速串行计算机扩展总线标准,是由英特尔在2001年提出的。PCIe作为连接x86服务器、PC和笔记本电脑核心处理器与外设的重要方式取得了巨大成功。随着CPU和GPU性能不断提升,PCIe总线速度也在同步增长,每一代都实现带宽翻倍。
PCIe 5.0的带宽较4.0提升100%,能彻底消除传统架构的带宽瓶颈,而PCIe 6.0采用PAM4编码技术,单通道速率达64GT/s,未来可支持800GE网络传输。
目前,超级隧道支持的集中式全闪存储产品已经实现亿级IOPS性能、202微妙级时延,面向AI加速场景,可成功将推理时延降低80%。曙光分布式存储通过五级加速+三级协同技术,可将GPU利用率从30-40%提高至70%-80%,训练速度提升4倍,万亿参数模型训练周期压缩60%以上。
在曙光存储的两大产品线——分布式全闪存储ParaStor、集中式全闪存储FlashNexus中,“超级隧道”都已有不同维度的应用。
从CPU、PCIe交换芯片到NVMe SSD,曙光存储构建了业界唯一全链路PCIe5.0通道,彻底消除传统架构中的带宽瓶颈。
为深化先进存力理念,曙光存储“超级隧道”技术再次加磅,将更好应对最新PCle6.0标准,为下一代国产芯片应运而生,为加速突破AI能力边界、应用落地塑造更强引擎。
AI行业应用释放存力价值
技术的价值,最终要靠实践验证。从西湖大学的AI科研,到造车新势力的智能驾驶,再到机器人具身智能,曙光存储的先进存力方案已在多个关键场景落地,成为推动行业进步的“隐形动力”。
西湖大学作为聚焦前沿科学的研究机构,在AI与生命科学、材料科学的交叉领域投入重兵。比如用AI预测蛋白质结构、用机器学习筛选新型材料,这些研究都需要处理海量实验数据,对存储性能的要求远超普通场景。
西湖大学在内部测试中发现,通过调整部分存储性能,可以将AI科研的计算过程加快30%,因此选择主打“AI加速”的曙光全闪存储。
技术方面,曙光存储实现了单节点带宽超越国际厂商4倍以上,为西湖大学的AI业务按下“加速键”。其次,曙光存储20多年来,已为多个世界级产学研项目提供保障,从前期设计、供应链保障,再到部署后的弹性调整,全方位匹配多学科平台需求,能够满足西湖大学对存储设备的稳定性和服务响应速度。
更为重要的是,西湖大学的科研数据多为核心机密,曙光存储采用100%自研的软硬件架构,从芯片到系统层层加密,同时配备多重冗余设计,即使某个硬件部件故障,系统也能自动切换至备用节点,数据不中断、不丢失。目前,这套存储系统已支撑西湖大学在蛋白质结构预测领域取得多项突破。
人形机器人的研发,对存力的要求更为苛刻。机器人的每一次行走、抓取、交互,都会生成视觉、触觉、听觉等多模态数据,这些数据需要实时传输至AI模型进行分析,再快速反馈指令,任何延迟都可能导致动作失误。
智元机器人作为具身智能领域的领先企业,之所以能在半年内推出多款商用人形机器人,背后离不开曙光存储的全力支持。
智元机器人的关注点在于“快速迭代”,其多模态大模型需要持续接收海量数据进行训练,同时要快速沉淀数据资产,以支撑新品研发。
针对这一需求,曙光存储为智元定制了“分布式全闪+对象存储”的分级架构,前端采用ParaStor分布式全闪存储,提供500GB/s的聚合读带宽,能实时传输机器人的多模态数据,支撑AI模型的快速训练,后端搭配分布式对象存储,单桶支持5万IOPS,能安全归档历史训练数据,同时成本可控。
两套方案协同配合,形成“分级存储”,不同需求的数据都能找到合适的存放地,不仅实现了高效的AI模型训练,数据也能及时沉淀复用,在机器人模型训练和商业化落地方面实现效率倍增。
AI时代的存力革命,才刚刚开始。随着大模型向万亿参数、机器人向通用智能、自动驾驶向全场景演进,存力的重要性将愈发凸显。从首次提出“先进存力”定义行业标准,到用“超级隧道”技术突破传输瓶颈,再到更好地应对PCIe 6.0标准,曙光存储的每一步动作,都紧扣AI产业的存力需求,解决的不仅是“存不下、传不快、不安全”的表层问题,更是通过自主可控的技术,为AI产业构建了可持续发展的存力底座。
这场存力革命,没有旁观者。而曙光存储,早已站在了潮头。
【关于科技云报到】
企业级IT领域Top10新媒体。聚焦云计算、人工智能、大模型、网络安全、大数据、区块链等企业级科技领域。原创文章和视频获工信部权威认可,是世界人工智能大会、数博会、国家网络安全宣传周活动、可信云大会与全球云计算等大型活动的官方指定传播媒体之一。