因为模型体积相对较小(单GPU安排友爱),开辟者可轻松本地下载测试,无需高额云端费用。
有名开源浏览器主动化项目 BrowserUse 宣布了其首个自研大年夜说话模型——BU-30B-A3B-Preview。
BU-30B-A3B-Preview采取混淆专家(MoE)架构,总参数范围达30B(300亿),但实际推理时仅激活3B(30亿)参数。这使得模型在保持顶级智能程度的同时,资本消费大年夜幅降低,仅需单张花费级GPU即可流畅运行。
该模型基于阿里云通义千问Qwen3-VL-30B-A3B-Instruct进行深度微调,专为浏览器主动化场景优化,支撑多模态输入(视觉+文本),高低文长度高达32K tokens,可以或许轻松处理复杂长网页内容。

BU-30B-A3B-Preview在浏览器操作义务中表示出色,具备周全的网页交互功能,包含精准元素定位、点击、滚动、表单填写等。其凸起的DOM(文档对象模型)懂得才能和视觉推理才能,让AI代理能像人类一样“看懂”页面构造和截图,实现高度靠得住的主动化履行。
官方强调,该模型特别合适构建Web Agent应用处景,如主动化测试、数据采集、RPA流程等,已在内部基准测试中达到业内领先程度。
官方宣布的比较数据显示,BU-30B-A3B-Preview在义务完成速度和经济性上远超主流商用模型:
- 平均每步操作仅需1.2秒,整体义务完成时光大年夜幅领先。
- 成本效益惊人:每1美元计算资本可靠得住完成约200个浏览器义务,是部分竞品模型的数十倍。

发表评论 取消回复