“CUDA花了20年时光建筑起这道护城河,可能在6个月内消掉。”johnnytshi说。

更令人赞叹的是,全部移植流程仅用了30分钟,且无需搭建Hipify这类复杂的翻译情况,直接经由过程敕令行即可高效完成。这一操作的出现,彻底打破了CUDA与ROCm之间的迁徙壁垒。

ps. Claude Code是美国公司 Anthropic 推出的 AI 编程智能体对象,可深度懂得代码逻辑,支撑代码移植、编写等开辟义务,比来爆火。

johnnytshi介绍称,全部移植过程全程零手写代码,这般高效的操作,俨然要直接填平CUDA与ROCm两大年夜生态体系之间的鸿沟。

更值得存眷的是,此次移植完全摒弃了Hipify翻译层等传统中心转换对象,仅凭敕令行(CLI)一键就能完成。

就连AMD软件开辟副总裁 Anush Elangovan 都对此深感震动,直言GPU编程的将来,必将属于AI智能体。

消息一经传出,全网刹时沸腾,不少业内人士纷纷感慨:NVIDIA逝世守多年的CUDA护城河,生怕要守不住了。这一切,毕竟是怎么回事?

作为运行在智能体框架上的对象,Claude Code的核心优势的在于其具备自立思虑才能。在代码移植过程中,它并非机械地调换关键词,而是可以或许深度懂得代码逻辑,尤其是特定核函数的底层运行道理。

据开辟者johnnytshi介绍,此次移植中最棘手的难题——两大年夜平台的数据构造差别,也被Claude Code完美化解,确保了内核核心计算逻辑的一致性。

要知道,NVIDIA在GPU范畴的霸主地位,很大年夜程度上恰是建立在CUDA生态的基本之上。如今,CUDA几乎已成为行业标准,无数AI框架、深度进修库以及科学计算对象,都与其深度绑定。

反不雅AMD的ROCm,尽管自身功能强悍,但经久以来始终受困于生态兼容性不足、开辟者迁徙成本过高等痛点,难以与CUDA分庭抗礼。

而此次Claude Code的零代码、高时效移植操作,无疑为ROCm生态的崛起注入了强心剂。跟着AI智能体在代码移植范畴的才能赓续冲破,将来或许会有越来越多的CUDA代码,可以或许轻松适配AMD GPU运行。

当然,因为编写内核的关键在于确保“深度硬件”优化,是以有人认为Claude Code在这方面仍然存在不足,尤其是在特定的缓存层次构造方面。

但有了这个开端,NVIDIA的生态垄断,或许似乎真的要迎来变数。

CUDA 13.1最大年夜的更新是采取的CUDA Tile编程模型,这是一种基于数据块(tile)的模型,其设计目标是大年夜幅降低GPU编程的门槛,开辟者可以专注于将数据组织成块并进行计算而底层复杂的线程调剂、内存构造以及硬件资本映射等工作,则由编译器和运行时体系主动处理。

事实上,上个月NVIDIA宣布CUDA 13.1就曾激发过NVIDIA“护城河”是否会被减弱的评论辩论,尽管官方将其定位为“自2006年CUDA平台出生以来最大年夜、最周全的进级”。

芯片设计界资深人物、曾介入AMD Zen、苹果A系列和特斯拉Autopilot设计的Jim Keller认为,假如将来的主流GPU编程逐渐转向这种Tile-based方法,开辟者一旦习惯了这的模式,那么同一套法度榜样逻辑就更轻易移植到不合的GPU硬件上,不像以前的CUDA那样高度绑定NVIDIA硬件,这可能会给AMD、Intel或新兴的AI公司供给切入机会。

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信小程序

微信扫一扫体验

立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部