当参数不再决定胜负,AI时代的企业级SSD靠什么「赢」?|MemoryS 2026

“全球半导体存储器的市场范围预估将冲破6000亿美元。”

MemoryS 2026上,深圳市闪存市场资讯有限公司总经理邰炜抛出这一数字,彰明显存储行业的底层逻辑已悄然改变:周期性行情退场,AI主导的新范式降临。

引爆这场变革的,是AI推理对存储的指数级需求:单请求情况下,若高低文从4K Token扩大至128K Token,KV缓存会膨胀32倍,若是100个并发请求,缓存需求则达TB级。

面对这种需求量,HBM已无力承载,这就决定了KV缓存开端大年夜范围向企业级SSD迁徙。

叠加NL HDD产能缺口带来的替代效应,多重变量共振,企业级SSD正在成为2026年NAND闪存最大年夜的应用市场。

“企业级SSD不再只是容量载体,而成了全部算力架构里冲破机能瓶颈的关键。”邰炜说到。

变局之下,AI对企业级SSD的标准无穷拔高,高靠得住性、低时延、高寿命既是订价标尺,也是厂商厮杀的核心疆场。

谁能破解“AI时代数据搬运的功耗与延迟”,谁就将定义下一个十年。

超等周期已启幕,存储厂商各有出招。

不做GPU的「副角」,SSD开端介入AI计算

当AI推理范围化爆发,存储与计算的关系正在被从新定义:SSD不再只是数据的“仓库”,而是影响Token生成效力的关键变量。

这种定位的跃迁,正在倒逼存储厂商从新思虑自身的技巧纵深。

以大年夜普微为例,为了实现更快的Token生成与响应,其经由过程Fast SSD与TLC SSD的产品组合,打造高IOPS和低时延的数据供给才能,从而节俭算力和成本。

更深一层的变更在于,存储开端介入计算的数据流调剂。

与此同时,FDP(灵活数据放置)技巧的引入,让SSD可以根据数据生命周期进行分组治理,从而降低写放大年夜与延迟波动,为GPU供给可预期的数据供给节拍。

这些技巧点的串联,勾画出一个清楚的演进偏向:SSD正在从“存储设备”进化为“AI数据调剂节点”,它不仅要存得快、存得多,还要存得“聪慧”,能在精确的时光把精确的数据送到精确的地位。

更值得存眷的是其产品节拍与AI算力迭代的同频。

这种“容量翻倍”的产品策略,与AI模型参数范围的增长曲线形成了共振,为下一阶段产品的放量埋下基本。

当参数不再决定胜负,AI时代的企业级SSD靠什么「赢」?|MemoryS 2026

“今朝,企业级SSD的市场大年夜概能按照容量进行划分,4TB-32TB是TLC SSD的范围甜点,30TB以上则是QLC SSD的主力区间,大年夜普微本年推出245TB的产品,来岁就会设计为512TB。”大年夜普微董事长杨亚飞对雷峰网("大众,"号:雷峰网)表示。

 当SSD开端承担KV Cache卸载、AI数据湖、推理缓存等义务,它既要供给接近内存级的延迟稳定性,又要具备远高于内存的容量密度和成本优势。

在这种变更下,SSD的评价体系也随之重构。

以前行业更强调带宽、IOPS与寿命,在AI场景中,长尾延迟控制、QoS一致性以及每瓦机能开端变得同样关键。

对大年夜型算力集群来说,一块SSD的价值不只是单盘机能有多高,而在于它可否在复杂负载下保持稳定响应,避免GPU因等待I/O而“空转”。

也恰是在如许的背景下,企业级存储厂商开端向体系才能延长。

以忆恒创源为例,其核心策略并不是简单堆叠硬件参数,而是经由过程固件算法和体系级调剂,把不合来源的控制器与NAND颗粒调校成更合适AI负载的产品形态。

在大年夜范围线上安排中,依托国内大年夜范围、高度复杂的AI与互联网生态,在极端且高频的营业压力下,其SSD的平均无故障时光(MTBF)已经达到约1500万小时,产品的稳定性有可不雅的场景及数据背书。

在AI负载情况下,经由过程固件调剂优化和延迟控制,其随机读延迟可以紧缩至50微秒级,从而削减推理场景中GPU等待I/O的时光。

SSD的竞争核心是让GPU「不空转」

并且,经由过程对固件和硬件架构的协同优化,高密度QLC在AI数据湖和推理场景中既能供给更大年夜的容量密度,也能保持稳定的机能表示。

对于须要存储海量练习数据或推理缓存的集群而言,这类产品正在成为实现“全闪数据中间”的关键一步。

当参数不再决定胜负,AI时代的企业级SSD靠什么「赢」?|MemoryS 2026

AI重构存储路径:企业级SSD从「容量介质」转向「算力体系变量」

在这一轮由 AI 推动的存储重构中,一个更清楚的共鸣正在形成:企业级SSD的价值锚点,正在从“单点机能指标”转向“体系肯定性”。

无论是KV Cache大年夜范围卸载带来的架构迁徙,照样QLC在高密度存储中的从新定位,抑或是固件层对延迟、QoS 与功耗的持续紧缩,本质上都在指向同一个问题:存储不再只是容量与带宽的供给者,而是决定算力是否可以或许被稳定释放的基本变量。

在这个意义上,行业的竞争界线也在悄然上移。

单一硬件才能的差别正在被体系级才能所稀释,真正拉开差距的,是谁能更早懂得AI工作负载的变更,并将其转化为可范围化、可持续优化的工程体系。

雷峰网原创文章,未经授权禁止转载。详情见转载须知。

当算力、存储与收集进一步融合,数据中间的逻辑也将从“资本堆叠”走向“效力组织”。

大年夜普微经由过程透明紧缩技巧实现将KV Cache的数据无损紧缩21%以上,从而等效晋升27%的带宽,带来直接的机能与用户容量收益。

而存储,正站在这一轮重构的交汇点上。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部