Alpamayo引入了视觉-说话-行动(VLA)模型,使主动驾驶体系可以或许解释他们看到的器械,对复杂的驾驶场景进行推理,并产生驾驶动作。该平台包含大年夜型推理模型、用于测试罕有和边沿场景的仿真对象,以及用于练习和验证的开放数据集。
英伟达表示,这种办法进步了主动驾驶体系的透明度、安然性和稳健性,特别是在复杂的实际情况中,并支撑向更高程度的车辆主动驾驶迈进。
该公司称:“Alpamayo 1拥有100亿个参数架构,应用视频输入来生成轨迹和推理轨迹,显示每个决定计划背后的逻辑。开辟人员可以将Alpamayo 1调剂为更小的车辆开辟运行时模型,或者将其用作主动驾驶开辟对象(如基于推理的评估器和主动标签体系)的基本。Alpamayo 1供给开放模型权重和开源推理脚本。该系列的将来模型将具有更大年夜的参数计数、更具体的推理才能、更多的输入和输出灵活性,以及贸易用处的选择。”
黄仁勋说:“它是端到端的练习。从相机输入到驱动输出;它会推理它将要采取什么行动,它采取行动的原因,以及它的轨迹。”
特斯拉CEO埃隆·马斯克回应称:“好吧,这恰是特斯拉在做的。他们会发明,达到99%很轻易,但要解决分布的长尾问题却异常艰苦。”


发表评论 取消回复