当高带宽显存无法持续承接,KV Cache只能向下一层存储介质下沉,NVMe SSD由此正式进入大年夜模型推理的及时数据路径。

作者 | 杨依婷

编辑 | 包永刚

客岁的CFMS|MemoryS峰会上,存储厂商们评论辩论的是:价格何时企稳、QLC何时上量、AI PC何时落地。彼时,“AI会让存储变得更基本、更关键”,还更像是一种行业断定,一种面向将来的趋势预演。

一年之后,站在MemoryS 2026的会场里,问题已经彻底变了。

人们谈论的不再只是位元成本、颗粒供给和容量节拍,而是GPU应用率、token成本、体系调剂效力,甚至物理AI场景中的及时决定计划才能。那些本来属于AI基本举措措施和体系架构层面的议题,正在越来越频繁地涌如今存储家当的评论辩论中间。

在传统计算架构里,存储的职责更多是“存”。数据被写入、留存,在须要时调取,不须要时则静静逗留在体系边沿。它经久是BOM成本中的一项,是容量筹划的问题,而很少直接介入算力效力的定义。

但在大年夜模型练习与推理时代,这一角色被彻底改写。

KV Cache的拜访延迟,开端直接影响token生成速度;Checkpoint的写入效力,决定着GPU在练习过程中的等待时光;SSD的IOPS密度,则进一步影响大年夜模型推理场景下的并发才能和体系吞吐。

存储开端进入计算主路径,它决定命据流动的速度,也在某种程度上决定GPU算力可否被充分兑现。而这,正在反向重塑全部存储家当链的分工逻辑。

存储进入计算路径,旧分工开端掉效

大年夜模型在处理长高低文时,须要把每一层、每一个token生成过程中的Key和Value成果临时保存下来,以避免反复计算。高低文越长,并发越高,这部分缓存的体量就越惊人。

假如说以前SSD的任务是“晋升加载速度”,那么在AI时代,它开端直接束缚或决定推理吞吐的上限。

慧荣科技总经理苟嘉章的总结更为直接:“新一代存储,正在从数据存储进入计算存储。”

这句话几乎点破了全部行业变更的本质。一旦存储进入计算路径,它就不再只是静态保存数据,而是开端影响token生成效力:拜访时延影响输出速度,IOPS密度决定并发才能,写入效力阁下Checkpoint节拍,最终合营感化于单位token成本。

也正因如斯,AI场景对存储提出的请求,已经明显超出了“标准颗粒 + 通用主控 + 标准模组产线”这套旧模式的才能界线。

AI推理有一个被反复评论辩论的瓶颈:KV Cache。

2026年,全球也许没有任何一款主流AI存储产品可以或许实现供需均衡。

外面看,这是先辈产能持续向高毛利AI产品倾斜,花费级市场被进一步挤压;但更深层的问题在于,即便产能跟上,旧有分工模式也难以高效承接AI场景对定制化、快速迭代的需求。

存储厂商集体越界

当存储真正进入计算路径,家当链上本来清楚的角色界线开端松动:主控厂介入体系定义,模组厂延长至固件与筹划优化,各自补全以前并不属于本身的才能疆土。

以慧荣为例,传统主控的核心义务,是治理闪存介质、优化读写效力,并在稳定性、兼容性和寿命之间寻找均衡。但在AI时代,这套才能模型已经不敷。

如今,慧荣开端反复强调一种新的才能——机能动态调节。

慧荣科技总经理苟嘉章在与雷峰网("大众,"号:雷峰网)交换时多次强调,主控须要“根据工作负载、功耗和需求量,在动态中快速调剂”。这已经不再是传统意义上的硬件参数调优,而是直接响应英伟达新架构中“高低文内存存储(Context Memory Storage)”对及时调剂的需求。

KV Cache需求暴涨32倍,AI若何重写存储家当链的「旧分工」?| MemoryS 2026不雅察

这种变更,也在推动主控厂进一步向下流延长。

慧荣正在积极与长江存储结合推动车规级筹划,目标是在第三季度末至第四时度实现范围上量,直接供货国内车厂。以前卖芯片的公司,如今越来越多地以“结合筹划供给方”的身份出现。

这意味着主控厂的贸易角色也在变更:一方面向上懂得AI工作负载,把主控纳入体系调剂;另一方面向下输出完全筹划,从卖芯片走向卖体系才能。

将来存储家当的竞争,不再只产生在颗粒、主控或模组层,而是进一步延长到封装架构、异构互连和体系级协同,是生态、技巧、产能、客户、本钱的综合战斗。

端侧AI反向定义存储

AI对存储的重构,显然不只产生在数据中间。

正如浩瀚厂商在峰会上提到的,物理AI/端侧AI将迎来更广泛的成长,并带来更智能化的体验。而这些更新更好的体验将带来更多的产品溢价,足以抵抗存储价格上涨的压力。 “

这也是为什么,端侧AI正在比数据中间更早倒逼存储筹划走向场景化重构。

这句话背后,点出了端侧AI最实际的贸易逻辑:只要体验晋升足够明显,存储成本就不再只是成本,而会转化为产品价值的一部分。

但与数据中间不合,端侧AI面对的不是单一机能问题,而是高度碎片化的场景挑衅。

一台AI PC,须要在本地运行大年夜模型,对存储的核心诉求是大年夜容量 + 高速读取;一台机械人,须要在高震动、高移动性的复杂情况中持续稳定运行,同时还要支撑后期扩容;一副智能眼镜,则把需求进一步推向极致的小尺寸、低功耗和高集成度。

可插拔、可扩容、高抗震、小尺寸、高容量——这些请求往往彼此拉扯,很难经由过程同一款标准化模组同时知足。

佰维给出的解法异常具有代表性。

针对机械人场景,其推出了一套 “BGA SSD + Mini SSD” 的组合筹划:BGA SSD直接焊接在主板上,以更强抗震性承担体系盘角色,保障操作体系和本地AI模型稳定运行;Mini SSD则采取类SIM卡槽设计,支撑用户无对象插拔,作为数据盘解决嵌入式设备后期无法扩容的经久痛点。

换句话说,主控正在从“闪存控制器”,演变为AI存储体系里的调剂层,它不只是负责把数据写进去、读出来,更开端介入数据在GPU、显存和SSD之间的流动节拍定义。

这套筹划的关键,并不只是形态立异,而是它背后的产品逻辑:把“稳定”和“灵活”拆分为两个自力部件,并分别做到最优。这本质上已经不是传统意义上的“卖一块SSD”,而是在从新定义机械人存储架构。

它正在推动Mini SSD从企业级筹划,进一步走向行业标准。经由过程联百口当链高低游成立IP公司,并同步制订鼓励机制和权益金分派规矩,佰维试图把“可插拔存储”推动为下一代AI终端的标准才能。

其目标场景并不局限于机械人,而是进一步覆盖AI PC、游戏掌机等多类设备——这些终端当前仍采取不合形态的本地存储筹划,而Mini SSD的野心,是用同一接口去从新组织它们。

换句话说,它争夺的不只是产品份额,而是下一代端侧AI设备的标准定义权。

而在这个过程中,以前那套面向PC和手机时代的标准化存储模组,已经越来越难承接碎片化、多形态、高迭代的终端需求。

更深层的变更在于,设备与存储之间的关系,正在产生偏向性的逆转——以前,是设备定义存储:设备要做什么,存储就被动适配什么。

而如今,跟着本地AI才能越来越依附容量、带宽、功耗和形态协同,存储开端反过来影响设备形态、产品定义,甚至最终用户体验。

下一战:功耗、延迟、智能

AI最大年夜的痛点并非算力不足,而是数据在存储与计算单位间的频繁搬运,降低体系效力。若何削减数据在存储与计算单位之间的频繁搬运,已成为行业合营攻关的核心命题。

这句话放在一年前,可能还有点抽象。但经由以前一年家当链高低游连续串几乎同步产生的变更之后,它开端落到一个个极其具体的技巧指标上:KV Cache的拜访时延、Checkpoint的写入效力、单位token成本等等。

以前十年,家当比拼的是单位容量的成本;下一个十年,胜负手将取决于数据在计算与存储之间流动的效力、功耗与智能。

另一条同样重要的疆场正在端侧敏捷展开——AI PC、机械人、游戏掌机、智能眼镜,甚至更多尚未被完全定义的新型终端,都在把存储推向更核心的地位。

至于那些仍固守在旧分工里、只盯着颗粒价格波动的玩家,留给他们的时光,或许真的不多了。

更值得存眷的是,佰维的动作并未逗留在单一产品层面。

雷峰网

雷峰网原创文章,未经授权禁止转载。详情见转载须知。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部