尽管如斯,OpenClaw 传递的讯息已超出具体硬件本身。 AMD 押注于如许一种趋势:开辟者会更看重自治与隐私,而不仅仅是云端范围的扩大,欲望经由过程运行在花费级芯片上的本地智能体,在小我计算与分布式 AI 之间搭建桥梁。 若这一思路获得生态的承认,AMD 有望在快速演进的 AI 疆土中占据一个独特地位,让部分高端桌面与工作站逐渐具备接近数据中间的 AI 处理才能,同时保持用户侧的掌控感与灵活性。

从技巧路径看,OpenClaw 今朝在 Windows 平台上经由过程 WSL2(Windows Subsystem for Linux 2)运行,由 LM Studio 搭配 llama.cpp 后端承担本地推理义务。 在这一情况下,用户可以直接在本机上运行包含 Qwen 3.5 35B A3B 在内的模型。 体系还支撑名为 Memory.md 的嵌入式记忆框架,用于在本地存储高低文信息,无需依附云端同步。 AMD 将官方教程定位为一条相对精简的设备路径,便利开辟者在 Windows 上搭建完全的 OpenClaw 情况并测试 AI 智能体架构,不过文档并未给出明白的估计设备耗时。

AMD 提出的两种 OpenClaw 参考筹划代表了通往“高机能本地 AI”的不合路线。 RyzenClaw 筹划环绕 Ryzen AI Max+ 处理器构建,配备 128GB 同一内存,AMD 建议个中约 96GB 作为可变显存分派,以包管大年夜模型推理效力。 在该设备下,Qwen 3.5 35B A3B 的生成速度约为每秒 45 个 token,处理 1 万 token 输入大年夜约须要 19.5 秒,支撑约 26 万 token 的高低文窗口,可用于多智能体工作流或“智能体集群”实验情况。 AMD 表示,这一平台最多可同时运行 6 个本地 AI 智能体,这在非数据中间级体系中颇具代表性。

另一套 RadeonClaw 设备则将算力重心转移到自力 GPU —— Radeon AI PRO R9700。 这款工作站级显卡供给 32GB 专用显存,明显晋升了推理吞吐量。 在同一模型下,其生成速度可晋升至每秒约 120 个 token,将处理 1 万 token 输入的时光缩短至约 4.4 秒。 不过,这种机能增益伴随必定弃取:最大年夜高低文窗口缩减至约 19 万 token,并发智能体数量降至 2 个。 这些差别凸显了 AMD 试图供给不合调优路径的思路——开辟者可根据自身需求,在更大年夜高低文深度和更高推理速度之间做出衡量。

就定位而言,无论是 RyzenClaw 照样 RadeonClaw,都不是面向通俗花费者的入门设备。 以 RyzenClaw 为例,一台基于 Ryzen AI Max+ 395 芯片并搭载 128GB 内存的台式机(例如 Framework Desktop 筹划)起步价格约为 2700 美元。 如若选择 RadeonClaw 路线,还需额外购买 Radeon AI PRO R9700 显卡,仅该卡建议零售价就约为 1299 美元。 AMD 今朝也坦言,OpenClaw 的重要目标用户是正在测验测验本地 AI 智能体的工程师和早期采取者,而非主流 PC 用户。


发表评论 取消回复