
英伟达强调,此次宣布不仅是单一新品问世,更是其“全栈一站式”算力计谋的重要节点。公司不再知足于用 GPU 去加快其他厂商的 CPU,而是欲望以自家架构贯穿从通用计算到 AI 推理的每一个环节。经由过程供给从 CPU、GPU 到高速互连的整体解决筹划,英伟达欲望在云计算与企业级基本举措措施范畴,从“部件供给商”进级为“完全体系供给商”。
在技巧规格方面,Vera 采取 88 个自研 Armv9.2 Olympus 核心,每个核心支撑两线程的空间多线程(Spatial Multithreading),形成 88 核心、176 线程的并行计算才能。英伟达选择 Arm 架构,旨在在机能扩大性与能效优化之间获得更大年夜灵活性,这一点对数据中间整体能耗控制尤为关键。芯片集成了 1.5 TB 的 LPDDR5X 内存,供给 1.2 TB/s 的带宽,这一高带宽设备对于 AI 模型预处理、数据分析与仿真等内存密集型工作负载具有明显优势。今朝尚不肯定 Vera 是否会支撑传统 DDR5 RDIMM 模块,抑或将完全依附类似其模块化体系常见的 LPDDR5X 筹划。

Vera 的核心架构一大年夜亮点在于第二代可扩大一致性互联架构(Scalable Coherency Fabric),这是一条贯穿单芯片上 88 个核心的高速互联通路。该互接洽统供给 3.4 TB/s 的对分带宽,使各核心间的数据交换高效且延迟更低,有意规避部分多芯粒(chiplet)设计中常见的同步开销问题,例如 AMD EPYC 这类产品所面对的跨芯粒调和挑衅。同时,这一互联构造还与英伟达第二代 NVLink Chip-to-Chip 技巧直接相连,最多可向包含即将到来的 Rubin GPU 在内的外部组件供给 1.8 TB/s 的一致性带宽。借助这一设计,Vera 与 Rubin 可以或许共享内存模型与数据,在同一计算框架内构建起同一的 CPU-GPU 计算情况。
在指令与向量计算才能方面,Vera 核心支撑 FP8 运算,并集成六组 128 位 SVE2 向量单位,以晋升数据与 AI 处理效力。这使得 Vera 可以或许在 CPU 端直接承担部分 AI 与浮点运算义务,而无需将所有工作都卸载给 GPU,从而在某些企业级 AI 推理与数据处理场景中降低能耗与延迟。对英伟达而言,Vera CPU 既是技巧层面的里程碑,也是计谋构造上的转折点:公司正从全球领先的 GPU 供给商,转型为在通用计算范畴与 AMD EPYC、英特尔 Xeon 正面竞争的新玩家。跟着 Vera 以自力形态进入数据中间市场,传统 x86 阵营将迎来一位更深度融合 CPU 与 GPU 的强劲敌手。

发表评论 取消回复