而在代理式AI架构中,模型须要长时光保持高低文、状况和义务记忆,这使得体系对短期但大年夜容量内存的需求明显增长。

与纯真依附HBM比拟,业界逐渐意识到须要引入另一层在成本、功耗和容量之间取得均衡的内存设计,是以,SOCAMM受到了广泛存眷。

相干人士指出,SOCAMM可以让单一CPU或加快器平台设备达到TB级内存容量,使AI agent 能同时保持数百万个token的活泼状况。

固然其带宽和吞吐量不及HBM,但在功耗效力和体系扩大性方面具有优势,被视为合适与HBM搭配应用的内存层级。

市场消息还显示,AMD和高通在SOCAMM的模块设计上可能采取与NVIDIA不合的路线。

这两家公司正在评估以方形模块情势设备DRAM,并将PMIC(电源治理IC)直接整合到模块本体之上,使电源调节可以在模块端完成。

在产品进度方面,NVIDIA已筹划在其Vera Rubin中引入新一代SOCAMM 2,并估计跟着出货范围的扩大年夜,SOCAMM将成为 AI 体系的重要内存设备之一。

此前还有消息称,NVIDIA已向DRAM厂商提出了SOCAMM的年度需求筹划,三星是重要供给来源,其次是SK海力士,美光则位居厥后。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部