据介绍,Arm AGI CPU 基于 3 nm 制程工艺打造,单颗芯片最多集成 136 个 Neoverse V3 内核,整卡热设计功耗为 300 W,每个内核可获得 6 GB/s 的内存带宽,并将拜访延迟控制在 100 ns 以内,可支撑单芯片最高 6 TB 内存容量,并兼容 DDR5-8800 规格。 I/O 方面,该处理器供给 96 条 PCIe Gen 6 通道,同时集成 CXL 3.0 以及 AMBA CHI(Coherent Hub Interface)互连以支撑高带宽、低延迟的协同计算需求。 每个内核可自力处理一个法度榜样线程,Arm 表示,此设计有助于在持续高负载场景下避免线程被挤占或长时光空转,进步整体资本应用率。

Arm 表示,该产品背后有跨越 50 家生态伙伴介入支撑,个中包含 AWS、Google、微软、英伟达、三星、台积电与美光等云办事、芯片制造与存储厂商,形成覆盖设计、制造、硬件体系到云端安排的完全链条。 对于 Arm 而言,AGI CPU 的推出不仅是一次技巧构造,更意味着其角色从“架构供给者”向“完全解决筹划供给者”延长,在新一轮 AI 数据中间基本举措措施竞争中争夺更高的话语权。

在数据中间高度关怀的算力密度方面,Arm 颁布的数字显示,在风冷体系下,单机架最多可安排 8,160 个内核,而采取液冷筹划则可将这一数字晋升至 45,000 个以上。 Arm 估计,为知足将来 AI 成长需求,数据中间每吉瓦电力所需的 CPU 算力将较当前程度晋升四倍以上,其认为传统 x86 架构在这一新型工作负载上存在过多开销与复杂性,晦气于机能与能效的进一步晋升。 官方给出的比较数据显示,Arm 筹划在每机架机能上可实现跨越两倍于 x86 的表示,并有潜力在每吉瓦 AI 数据中默算力范围上带来最高 100 亿美元成本节约空间。

在生态与落地层面,Meta 是本次 AGI CPU 的核心合作伙伴与重要安排方,将把该处理器与其自研 MTIA 加快器结合,用于其平台上的大年夜范围 AI 调剂与编排。 除 Meta 外,已有包含 OpenAI、Cloudflare、Cerebras、Rebellions、SAP 与 SK Telecom 在内的多家企业确认采取这一平台。 硬件整机方面,ASRock Rack、联想、广达与超微(Supermicro)等厂商正环绕该平台推出办事器产品,首批体系已经供给给部分客户,估计在本年下半年实现更大年夜范围供货。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部