英伟达强势进军自动驾驶领域 黄仁勋亲自发布Alpamayo平台
美东时间周一,全球科技巨头英伟达在拉斯维加斯 CES 展会上重磅宣布进军汽车自动驾驶领域;CEO 黄仁勋亲自发声,正式发布开源推理 VLA(视觉 - 语言 - 动作)模型 Alpamayo,并称此举标志着自动驾驶技术迎来 "物理AI的 ChatGPT 时刻",为行业安全化、可扩展化发展注入强劲动力。

作为英伟达布局自动驾驶的核心成果,Alpamayo 平台凭借类人思维方式处理复杂驾驶场景,为解决长期困扰行业的自动驾驶长尾问题提供了全新路径。该平台整合开源模型、仿真框架和数据集三大基础支柱,构建起完整的开放生态系统,任何汽车开发者或研究团队均可自由使用。
目前,Alpamayo 1已在 Hugging Face 平台正式上线。其采用 100 亿参数架构,通过视频输入生成轨迹并推理轨迹逻辑,清晰呈现每个驾驶决策背后的思考过程,开发者可将其改编为更小的运行时模型用于车辆开发,或作为自动驾驶开发工具的基础,应用于推理评估器、自动标注系统等场景。
与传统模型不同,推理 VLA 模型实现了视觉感知、语言理解和动作生成与逐步推理的深度融合。它能将复杂驾驶任务分解为可管理的子问题,以可解释的形式阐明推理过程,不仅大幅提升了任务执行的准确性,还能对操作进行反思。
在自动驾驶场景中,该模型展现出强大的实用价值,例如接近十字路口时,系统会自主推理:"我看到一个停止标志,左边有车辆驶来,还有行人正在过马路。我应该减速,完全停下来,等待行人通过人行横道,安全时再继续前进。" 这种类人化的推理能力,让车辆在交通信号灯故障等意外情况下也能自主 "思考" 解决方案。
值得关注的是,英伟达采取免费开放策略,允许潜在用户自行对 Alpamayo 模型进行重新训练。不过该模型并非直接在车内运行,而是作为大规模教师模型,供开发者微调后提取到完整自动驾驶技术栈的骨干中。黄仁勋透露,未来 Alpamayo 家族模型将进一步升级,实现更大参数规模、更详细推理能力、更多输入输出灵活性,并新增商业使用选项。
据悉,首款搭载英伟达相关技术的汽车将于 2026 年第一季度在美国上路,2027 年英伟达还计划测试无人驾驶出租车服务。
在发布 Alpamayo 平台的同时,英伟达还同步推出了配套的仿真工具和数据集,完善自动驾驶开发生态。
黄仁勋强调,物理AI的ChatGPT时刻已到来 —— 机器开始理解、推理并在真实世界中行动。无人出租车是首批受益者。Alpamayo 为自动驾驶汽车带来推理能力,使其能够思考罕见场景,在复杂环境中安全驾驶,并解释其驾驶决策。











