此外,该平台支撑基于软件定义的动态物理互联与内存重构才能,可以根据用户创建或删除集群的需求,及时调剂GPU节点间的连接方法与跨节点内存设备,并根据GPU拓扑主动分派节点,以优化延迟并最大年夜化带宽,实用于大年夜范围分布式AI练习义务。
软银公司旗下Infrinia团队已开辟完成面向将来AI数据中间的软件平台“Infrinia AI Cloud OS”。该平台经由过程主动化手段,同一治理从硬件到应用层的全部GPU算力技巧栈,以应对生成式AI、主动化机械人等范畴对GPU算力快速增长且日趋复杂的多样化需求。
Infrinia AI Cloud OS供给了完全的Kubernetes即办事才能,能在包含英伟达GB200 NVL72在内的各类GPU平台上,实现对从BIOS、操作体系、驱动、收集到Kubernetes控制器与存储的全部技巧栈进行主动化治理。

平台还针对多租户场景设计了高安然性与高可运维性,经由过程加密通信与隔离机制保障租户安然,并主动化体系监控与故障切换等运维工作。该软件将率先安排在软银自有的GPU云办事中,将来筹划推广至海外数据中间与云情况。
Infrinia AI Cloud OS官网:https://infrinia.ai/

发表评论 取消回复