这一合作让两家企业在x86架构上的合作更进一步,此前在基于DGX B300 Blackwell的平台上,两边就已采取Xeon 6776P处理器建立了x86架构合作,这也意味着Intel成功“抱上”NVIDIA的大年夜腿,在AI办事器范畴站稳了脚跟。
据悉,DGX Rubin NVL8是NVIDIA新一代旗舰AI办事器体系,主打智能体AI和推理体系等新兴应用处景。在这套体系中,主机CPU的感化至关重要,重要负责义务编排、内存治理、调剂,以及向GPU加快器传输数据。
而跟着AI推理工作负载逐渐向智能体AI和推理体系转型,这些工尴尬刁难单核机能和内存带宽的请求也越来越高。
Intel方面表示,至强6处理器经由过程内存容量、带宽和I/O机能的综合晋升,刚好能知足这些需求。这款处理器地点的平台可支撑高达8TB的体系内存,Intel称这一点对支撑键值缓存赓续扩大年夜的大年夜型说话模型来说尤为关键。
借助MRDIMM技巧,其内存带宽较上一代晋升了2.3倍,能明显晋升数据传输到GPU加快器的速度。
与此同时,PCIe 5.0通道可实现高带宽的加快器连接,Intel推出的“优先核心睿频加快”(Priority Core Turbo)功能,还能把强劲的单线程机能集顶用于编排、调剂和数据传输义务,即便工作负载变得更复杂,也能包管GPU保持高应用率。
在安然和兼容性上,至强6处理器经由过程Intel信赖域扩大(TDX),能为CPU到GPU的全部数据路径供给安然防护。个中TDX技巧会经由过程加密反弹缓冲区,增长基于硬件的隔离和认证功能,刚好能知足AI推理在数据中间、云端、边沿等多场景安排时,对端到端机密计算的需求。此外,至强6还新增了对NVIDIA Dynamo推理编排框架的支撑,借助这一框架,同一集群内的CPU和GPU资本可实现异构调剂。

“在这个新时代,主机CPU的感化至关重要。”Intel公司副总裁兼数据中间计谋项目总经理杰夫·麦克维表示,它直接决定着GPU加快体系的编排效力、内存拜访速度、模型安然性以及吞吐量。
Intel还提到,至强处理器成熟的x86软件生态、丰富的企业安排经验,以及与现有AI软件栈的优胜兼容性,恰是NVIDIA选择它的关键原因。
此次两边的合作,沿用了与DGX B300雷同的架构基本,让Blackwell和Rubin两代产品实现了平台层面的持续性,有望推动AI推理技巧在数据中间、云端、边沿等场景的范围化落地。


发表评论 取消回复