车东西(公众号:chedongxi)
作者 | 张睿
编辑 | 志豪

车东西1月7日消息,日前,2026年国际消费电子展(CES 2026)在美国拉斯维加斯举办。在活动期间,NVIDIA英伟达发布了NVIDIA Alpamayo系列开源AI模型、仿真工具及数据集。


▲CES 2026现场

在辅助驾驶系统中,被称为“长尾”的罕见、复杂场景始终是辅助驾驶系统需要攻克的最大难题之一,要解决这些长尾极端事件,需具备安全推理因果关系能力的模型,特别是在遇到的场景超出模型训练经验的情况下。

英伟达Alpamayo系列模型则引入基于思维链的VLA推理模型,能够逐步推演罕见或全新场景,提升驾驶能力和可解释性,其核心技术由NVIDIA Halos安全系统提供支撑。

英伟达创始人兼首席执行官黄仁勋表示:“物理AI的ChatGPT时刻已然到来,机器开始具备理解真实世界、推理并付诸行动的能力。无人驾驶出租车将是最早受益的应用之一。Alpamayo为智能汽车注入推理能力,使其得以应对罕见场景、在复杂环境中安全行驶,并解释其驾驶决策,这为安全、可规模化的自动驾驶奠定了基础。”

同时,NVIDIA DRIVE AV系统在全新梅赛德斯-奔驰CLA车型上首次亮相,该L2级驾驶辅助系统将在美国量产上市,标志着英伟达正将全栈软件在汽车领域进行推广。


▲英伟达和奔驰的合作

一、发表Alpamayo开源模型 可利用英伟达工具和模型库

英伟达Alpamayo将开源模型、仿真框架与数据集三大支柱整合为统一开放的生态系统,任何汽车开发者或研究团队均可在此基础上进行研发。


▲英伟达的汽车相关布局

但是英伟达Alpamayo并非直接部署于车端的模型,而是作为大规模教师模型,供开发者调优、蒸馏,成为其完整辅助驾驶技术栈的核心基础。

在CES上,英伟达推出了:

1、Alpamayo 1:面向辅助驾驶研究社区设计的思维链VLA推理模型,基于 100 亿参数架构,该模型通过视频输入生成行驶轨迹,同时给出推理思路,能够清晰展示每项决策背后的逻辑。开发者既可将Alpamayo 1调整为更精简的运行时模型部署于车端,也可将其作为辅助驾驶的基础架构,构建诸如基于推理的评估器和自动标注系统等开发工具。Alpamayo 1提供开放模型权重和开源推理脚本。该系列的后续模型将具备更大的参数规模、更精细的推理能力、更灵活的输入输出方式以及更丰富的商用选项。

2、AlpaSim:一款面向高保真辅助驾驶开发、完全开源的端到端仿真框架,该框架提供传感器建模、可配置交通动态,以及可扩展的闭环测试环境,支持快速验证与策略优化。

3、物理AI开放数据集:英伟达提供多元化的大规模辅助驾驶开放数据集,包含超过1700小时的驾驶数据,覆盖广泛的地理区域和环境条件,涵盖推动推理架构发展所必需的罕见且复杂的真实世界极端场景。

这些工具共同构建了一个自我强化的开发闭环,用于推理型辅助驾驶堆栈的开发。

除Alpamayo外,开发者还可利用英伟达的工具和模型库,包括NVIDIA Cosmos和NVIDIA Omniverse平台,能够基于专有车队数据对模型版本进行调优,将其集成至NVIDIA DRIVE AGX Thor加速计算构建的NVIDIA DRIVE Hyperion架构中,并在商业部署前通过仿真验证其性能表现。

二、L2级辅助驾驶系统落地奔驰 支持点到点城市NOA

具体到落地方面,英伟达推出了搭载L2级点到点驾驶辅助功能的NVIDIA DRIVE AV系统,预计今年在美国率先应用,首批搭载该技术的车型将来自奔驰,全新奔驰CLA是该品牌首款搭载 MB.OS 平台的车型,引入了由英伟达全栈式DRIVE AV、AI基础设施及加速计算提供支持的高级驾驶辅助功能。


▲英伟达和奔驰的合作

该设计有望通过OTA的方式进行升级和功能更新,包括计划中的MB.DRIVE ASSIST PRO增强功能,这些功能可在新车出厂前预装,也可以通过奔驰商店进行购买。

全新奔驰CLA车型近期获得了欧盟新车安全评鉴协会(EuroNCAP)的五星安全评级,MB.DRIVE主动安全功能在事故减少和避免事故方面的性能表现,为该车型赢得了最高安全评分。

英伟达汽车事业部副总裁Ali Kani表示:“随着汽车行业迈向物理AI,NVIDIA 正在成为每辆汽车的智能中枢,通过数据和软件,让车辆可编程、可升级,并持续改进。以梅赛德斯-奔驰及其全新 CLA 车型为起点,我们正在见证在安全、设计、工程和 AI 驱动驾驶方面的非凡突破,把每一辆汽车都变成持续学习、不断改进的‘生命体’。”

英伟达DRIVE AV 采用AI端到端技术栈来进行核心驾驶控制,同时并行运行基于NVIDIA Halos安全系统的安全堆栈,提供冗余和安全防护。因此车辆可以从大量真实及合成驾驶数据中学习,以类人的决策能力,帮助安全应对复杂的驾驶环境和场景。

对于消费者而言,这意味着更加安心和舒适,因为系统内置冗余和故障安全检查机制就可以保障旅程安全可靠。Halos 可确保车辆在规定的安全参数范围内运行。

该统一架构可通过扩展功能实现L2级辅助驾驶功能,包括在复杂城市环境中实现点到点城市导航、具备主动防撞功能的高级主动安全系统,以及在狭窄空间内的自动泊车。此外,该系统还支持系统和驾驶员之间的协同转向功能。

英伟达深度学习模型为新一代AI辅助城市驾驶系统提供支持,能够整体解读交通状况,使车辆在拥堵或陌生区域智能导航,包括车道选择、转弯和路线跟随,识别弱势道路使用者,如行人、自行车骑手、轻型摩托车骑手等,并主动采取让行、刹车或停车等措施,从而避免发生碰撞,还可以全程辅助驾驶员安全导航至任意目的地,例如从家到工作地点。

英伟达和梅赛德斯-奔驰正借助NVIDIA Omniverse的数字优先策略推动汽车制造领域的变革。

通过工厂和装配线的数字孪生技术,工程师能够在虚拟环境中进行设计、规划和优化操作,从而减少停机时间并加速迭代。借助 Omniverse和NVIDIA Cosmos平台,开发者可在实际部署前,先通过仿真环境对辅助驾驶软件进行测试和验证。

所有基于英伟达动的辅助驾驶系统都基于从云端到车端的开发流程,可将真实世界的数据转换为数十亿英里的模拟里程,从而加速系统迭代升级:

1、基础设施训练:NVIDIA DGX平台使用大规模GPU计算,基于全球多样化数据集对DRIVE AV基础模型进行训练。这些模型能够在数百万真实场景中捕获人类驾驶行为。

2、仿真与验证:NVIDIA Omniverse和Cosmos仿真环境可实现物理级精准的测试和场景生成。开发者可在部署前对数千种极端案例进行新功能验证,将实际里程的数据转换为数十亿的虚拟里程数据。

3、车载计算与Hyperion架构:NVIDIA DRIVE AGX加速计算可实时处理感知、传感器融合和决策任务,同时应对复杂的城市和高速公路场景。DRIVE Hyperion提供的计算和传感器架构引入了传感器冗余和多样性,可实现安全、高级的辅助驾驶体验。

这种闭环体系能够加速驾驶算法的迭代,并通过大规模训练实现出色的精准度,能够在真实驾驶中罕见或危险的极端情况下进行安全验证,并支持跨多个车辆平台的规模化部署。

结语:英伟达CES展示自动驾驶布局

英伟达方面表示,除了奔驰外,英伟达还与全球众多汽车制造商一同,为其不同的车型产品线提供全栈软件、AI 基础设施和先进的计算技术。

这一模式助力汽车和卡车制造商规模化集成辅助驾驶功能和安全创新技术,同时简化开发、部署和未来升级流程。