2025年,AI算力进入深水区。

一边是需求持续外溢:大年夜模型练习范围仍在扩大,推理请求呈指数级增长,数据中间的投资未见降温;另一边,是一系列隐性的制约正逐渐浮出水面——算力应用率始终在低处彷徨,体系颤抖频发,集群效力难以保持稳定。

行业逐渐意识到,瓶颈并不总涌如今“算力”本身。很多时刻,问题卡在“数据”这一环。

当计算集群范围扩大年夜到万卡级别,任何一个环节的延迟波动,都邑被放大年夜为整体机能问题。一些云办事的宕机事宜,外面上是调剂算法掉效,深层原因倒是数据供授与计算节拍之间的错位——数据来不及被组织、搬运、分发,算力只能在空转中等待。

这让一个经久被视为基本组件的范畴,从新进入核心视野:存储。

以前,存储的义务是解决“存得下”;而在AI时代,它开端决定“算得快不快”。

这一思路指向一个明白偏向:存储体系须要针对AI负载进行体系性优化。

恰是在这一背景下,“AI SSD”应运而生,几乎所有主流存储厂商,都在测验测验交出本身的答卷。

真正的挑衅,在于如安在体系层面实现这些差别化才能的协同。

但问题也随之而来——当全部行业都在做AI SSD时,什么才是真正有效的改进?存储,毕竟须要为AI改变什么?

带着这些问题,我们与英韧科技董事长吴子宁博士进行了一次对话。他没有急于答复,而是先讲起了一个二十多年前的故事。

(本文作者经久存眷存储行业,对周期波动与企业分化有持续追踪,迎接添加微信 EATINGNTAE 交换商量。)

在技巧的交叉口,选对偏向很重要

技巧史,并不是一条笔挺向前的曲线,而更像是连续串赓续被颠覆、被修改、再重建的测验测验。吴子宁博士用一个故事,说清楚明了这种均衡若何被打破、又若何重建。

2001年,苹果宣布iPod,那款音乐播放器采取了一项当时颇具冲破性的设计——把机械硬盘缩到火柴盒大年夜小,实现了5GB的存储容量。而在同一时代,主流MP3播放器广泛仅配备64MB或128MB的闪存。

苹果起首颠覆了人们对音乐播放器的认知。吴子宁博士回想道,“用户不再须要频繁治理音乐文件,而是可以将全部音乐库随身携带。”

这一变更敏捷在家当链中激发连锁反响。多家硬盘厂商将小尺寸机械硬盘视为新的增长偏向,投入大年夜量资本进行研发。然而不久之后,另一项技巧路径开端加快演进——闪存技巧快速迭代,容量飞速成长。苹果随即推出基于全闪存的iPod,尽管入门容量仅为1GB,但凭借小型化和便利性,很快在市场上超出了机械硬盘版本。

生态层面,它延续PCIe/NVMe等标准接口与协定,与现有计算体系保持兼容,可以或许被腻滑回收。

很多存储公司投入大年夜量资本研发小尺寸机械硬盘,都因为新技巧的出现受到了巨大年夜的冲击。

彼时,吴子宁博士正任职于Marvell,而Marvell恰是业界最早周全投入闪存固态硬盘解决筹划的公司之一。这一经历在贰心中形成了一个重要断定:技巧持续演进是常态,短周期内会有渐进式立异,而在更长周期内,则可能出现颠覆性变革。可否精确把握技巧与市场趋势,并据此做出前瞻性决定计划,至关重要。

2016年创办英韧科技时,他已经不雅察到两个关键趋势的叠加。

第二,应用处景高度分化,基本大年夜模型正在向行业大年夜模型演进。银行的风控数据、车企的主动驾驶数据、医学影像体系数据,每个场景对存储的请求都不一样:有的须要超高吞吐,有的须要极低延迟,有的须要在边沿节点上实现高密度数据处理。

而在AI驱动的新一轮数据海潮之下,这一“断定才能”的重要性再次被放大年夜——面对全新的计算范式,存储体系应当若何演进?

为什么须要AI SSD?

据DESIGNRUSH估计,2025年实际数据量约为173.4ZB,而2026年全年数据生成量估计在230ZB至240ZB之间,到了2029年,该数字估计将达到527.5ZB。

作为IT基本举措措施三大年夜核心支柱之一,存储在半导体市场中占比约为20%至30%,但在AI时代,这一“支柱”正遭受前所未有的压力。

这种压力重要表如今三个方面。

第一,数据形态正在改变。传统数据平日具备明白的冷热分层:热数据驻留内存,温数据进入SSD,冷数据则归档至机械硬盘。然而在AI练习与推理过程中,数据出现出高频交互特点——大年夜模型练习须要持续吞吐海量数据,推理阶段涉及大年夜量中心状况的频繁拜访,而向量检索则带来高比例的小块随机读写。数据不再严格遵守既有分层构造。

第三,体系容忍度明显降低。当计算集群扩大至万卡级范围时,任一环节的机能波动都可能拖慢整体练习效力。与此同时,边沿侧本来受限的内存带宽,还需匹配接近GPU级其余计算才能。存储不再只是数据的承载介质,而成为影响数据流动效力、进而决定练习与推理机能的关键身分。

在他看来,这种变更的根源,在于计算体系中间的迁徙。

吴子宁博士用一个形象的比方来解释这一变更:“一辆车即使最高速度很高,假如大年夜部分时光处于等待状况,发念头空转,那么它的实际效力依然很低。”

在AI计算体系中,“等待”正成为日益凸起的瓶颈。计算单位具备极高的算力,但数据往往滞留在存储侧——假如无法被高效调剂至计算单位,就会导致算力资本闲置与浪费。

“存储不仅要完成数据的持久化,还须要具备对数据进行高效组织与调剂的才能。”吴子宁博士指出,“我们已经开端摸索,在存储侧引入更智能的控制机制,对数据构造与拜访路径进行优化。”

以前几年,行业已展开多路径摸索。例如,经由过程优化固件与FTL(Flash Translation Layer)算法,使SSD在高并发场景下保持稳定的延迟分布;经由过程重构主控架构,晋升数据调剂效力;以及借助CXL(Compute Express Link)协定扩大内存语义,使闪存在特定场景中承担部分内存功能。

这些技巧路径最终汇聚为一个合营的产品偏向——AI SSD,这是全部行业对同一核心问题的多元回应:当计算范式产生变更,存储体系若何协同演进?

在吴子宁博士看来,一项技巧是否值得投入,可以从三个维度断定:技偶合理性、贸易可行性与生态兼容性。

以此衡量AI SSD,其可行性便清楚起来——

技巧层面,AI负载对存储提出了传统SSD难以知足的新请求,针对性优化是解决“算力等数据”痛点的须要路径;

贸易层面,AI SSD在成熟闪存与主控技巧基本上演进,可以或许复用现有供给链,具备大年夜范围安排的成本基本;

从这个角度看,AI SSD的出现具有内涵必定性——它并非对现有体系的颠覆,而是在既有架构基本上,针对新型负载特点进行的体系性优化。

正如昔时闪存慢慢代替小尺寸机械硬盘——技巧进步供给了替代才能,而应用需求则明白了替代偏向。

在这一过程中,可以或许深刻懂得AI负载特点,并据此构建差别化存储筹划的厂商,将更有可能鄙人一轮体系级重构中占据有利地位。

先懂得负载特点,再定义产品形态

2025年,这场“体系重排”已经拉开序幕。

从铠侠颁布AI SSD中经久路线图,到三星、海力士、美光陆续推出针对AI场景优化的超高速颗粒产品;从FMS存储峰会上多家厂商的同台竞技,到华为在上海宣布“AI SSD,加快智能经济出现”——几乎在同一时光点上,全球重要存储厂商都在朝同一个偏向发力。

当“AI SSD”成为行业共鸣,英韧必须答复一个更具体的问题:差别化路径安在?

在英韧内部,对这个问题的思虑始于对AI负载的拆解。AI并非单一应用,而是一组差别明显的计算义务,大年夜致可以归纳为三类典范负载形态。

第一种是练习。大年夜模型练习的特点是持续、稳定且高带宽的数据流动,样本被反复读取、重排与迭代,这个场景对次序吞吐才能高度敏感,但对极端微秒级延迟的请求相对次要。稳定的大年夜范围供给,比瞬时极限机能更重要。

第二种是推理,这是变更最激烈的部分。推理阶段的数据拜访出现高度碎片化特点,包含大年夜量小块随机读写、KV Cache频繁交换以及向量索引调用。此时,存储从“批量搬运”改变为“及时响应”,体系机能对尾延迟高度敏感,一旦尾延迟掉控,将直接影响整体办事质量。

第三种是数据归集与治理。跟着模型范围扩大年夜,数据留存、分层与生命周期治理成为刚性需求。该场景对延迟的请求相对宽松,但对容量密度与单位成本极为敏感,须要在范围与成本之间取得均衡。

这三类负载之间,并不存在一个可以或许同时最优覆盖的同一设计筹划。

是以,英韧的策略是针对不合负载特点,设计具备差别化才能的主控架构与产品组合。

在通用练习场景中,采取TLC NAND的“洞庭-N3”更强调带宽与稳定性的均衡,次序读取带宽在14.5GB/s以上,随机读取才能约3.4M IOPS,合适作为练习集群中的惯例数据层。

针对容量敏感型场景,则引入基于QLC NAND的“洞庭-N3Q”。在更高存储密度的前提下,经由过程控制器与纠错机制优化,将单盘容量晋升至64TB,同时保持跨越14GB/s的次序读取程度,用于降低单位容量成本。

“以前是CPU在做调剂,GPU只是履行单位;但如今,在AI体系里,GPU本身开端承担调剂角色。”他说,“假如数据还要经由CPU中转,就相当于在两条高速公路之间接了一座很窄的桥,这个环节会成为瓶颈。”

而在对响应时光更敏感的推理侧,则采取“洞庭-N3X”这一低时延筹划。该产品结合XL-Flash与SLC NAND,在随机拜访下可实现约13微秒读取延迟、4微秒写入延迟,随机读取机能跨越3.5M IOPS,随机写入机能可达1.6M IOPS,且具备最高100 DWPD的耐用性,更合适高并发、小请求场景。

该产品的实际表示,近期已获得第三方测实验证。

英韧的洞庭-N3X参加了ODCC AI存储实验室“面向AI推理场景KV Cache的数据存储测试项目”,SSD能支撑GPU Direct Storage (GDS),采取GPU直接调剂的方法,构建“以存代算”的第三级缓存。

“一边是数据需求在爆发,并且是经久趋势;另一边是存储介质正在从机械硬盘向固态硬盘迁徙。”他说,“当需乞降技巧同时产生变更,就会出现一个很典范的机会窗口。”

实测数据显示:采取英韧科技AI SSD(洞庭-N3X)后,可以或许有效打破“内存墙”,让数据更快供给 GPU,H20平台的体系吞吐量晋升约12倍,RTX 6000D平台的体系吞吐量晋升约20倍。在10K输入长度下,原生架构因为须要从新计算或处理显存溢出,存在必定延迟,但采取N3X后,首Token延迟可从数秒级缩短至毫秒级。跟着输入长度从100 tokens增长到100K tokens,存储压力呈线性甚至指数级增长,而输入文本越长,N3X对体系换入换出效力的晋升后果越明显。

这一成果注解:当AI负载范围跨越特定阈值后,存储将从帮助角色改变为关键机能变量;而针对推理场景深度优化的AI SSD,可以明显改变体系整体效力。

在英韧看来,这三类产品的划分并非传统意义上的“高、中、低端”区隔,而是对不合数据拜访模式的针对性响应,是基于负载模型推导的工程成果,而非简单的参数堆叠。

这些问题,构成了AI SSD主控芯片的研发关键。

偏向靠校准,路径需修改

跟着接口标准持续演进——从PCIe 4.0到5.0,并迈向即将到来的6.0——SSD不仅须要晋升物理带宽才能,更须要同步加强主控的并发调剂与队列治理才能。不然,底层介质机能的晋升将难以转化为体系级收益。

“必须抓住每一代接口进级的窗口期。”吴子宁博士也强调,更具挑衅性的部分在于内部架构的重构:在高并发场景下若何避免队列壅塞?若何有效控制尾延迟?如安在不合介质特点之间实现负载均衡?

这些问题,最终都指向一个具体的机能目标。

“要把吞吐量从如今的300万IOPS,在两年后晋升至1亿IOPS,这相当于接近两个数量级的跃升。”吴子宁博士进一步阐释道,“单靠更先辈的芯片制程,无法支撑这一量级的机能跨越,关键在于架构层面的重构。我们须要在数据调剂路径上实现更精细的优化与更高的效力,推动介质层与接口层之间的深度协同,将数据从存储介质到主机接口的整条通路紧缩至最短,从而在根本高低降拜访延迟。”

环绕“内部架构重排”,英韧的摸索正在延长至下一代产品。

个中,CXL(Compute Express Link)尤为关键。该协定经由过程引入内存语义,实现高速互联,构建更大年夜的存储池。从更广义角度看,这一偏向正指向“存算一体”的演进路径——即更高效地将数据从存储侧调剂至计算侧。

“这不仅是硬件问题,软件体系同样在同步演进。”吴子宁博士指出。

2026年,英韧筹划推出PCIe Gen6的新一代产品,将融合下一代NVMe与CXL双协定,在带宽实现翻倍的同时,512B随机读取机能有望达到切切IOPS量级。

与此同时,英韧也在和颗粒原厂开展更深度的合作——因为无论主控多强,没有好的介质合营,一切都无从谈起。

从PCIe 3.0到5.0,再到即将到来的6.0;从TLC到QLC,再到XL-FLASH与SLC的协同;从单一的SSD主控,到NVMe与CXL双协定的融合——英韧的技巧路线,始终环绕同一个核心问题展开:当数据的调剂和应用方法变了,存储该若何从新设计?

对于英韧当前的产品偏向,吴子宁博士在对话中表示:“大年夜偏向须要经由过程经验与市场反馈来校准,避免计谋性缺点;而在具体路径上,则必须持续迭代与修改。”

这个立场,或许比任何产品参数都更能解释问题——在AI带来的新一轮“体系重排”中,没有人能预知终点。独一能做的,是在变更中赓续调剂本身的地位。

(本文作者经久存眷存储行业,对周期波动与企业分化有持续追踪,迎接添加微信 EATINGNTAE 交换商量。)

雷峰网("大众,"号:雷峰网)雷峰网

雷峰网原创文章,未经授权禁止转载。详情见转载须知。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部