首页 > 新能源汽车

Waymo:“可验证安全”的自动驾驶人工智能

来源:新能源网
时间:2025-12-16 14:00:37
热度:

2025年12月16日关于Waymo:“可验证安全”的自动驾驶人工智能的最新消息:芝能科技出品Waymo发布了一片技术文章《Demonstrably Safe AI For Autonomous Driving》,随着Uber带着全球的Robtaxi探讨&ldq

芝能科技出品

Waymo发布了一片技术文章《Demonstrably Safe AI For Autonomous Driving》,随着Uber带着全球的Robtaxi探讨“能力”“规模”“商业化”的时候,Waymo 要开始重点强调“可验证的安全”?

为什么它已经累计行驶超过 1 亿英里、并在真实运营中显著降低事故率,却依然要拆开系统、公开其 AI 架构细节?理解这些问题,其实是要解决Waymo和特斯拉的分歧,才能看清 Waymo 最新自动驾驶路线。

自动驾驶被称为现实世界中最难的 AI 问题,现在不仅仅是端到端模型像不像人,在Robotaxi的领域,问题是能否“被证明是安全的”。

Waymo 的核心判断非常明确,安全是从模型、架构到训练方式的第一性原理。

Waymo 并没有押注“更大的端到端模型”,构建了一整套围绕安全验证展开的 AI 生态系统,包含“驾驶员”模型,还同时包含“模拟器”和“评价系统”,三者共同构成闭环,而它们背后依赖的是同一个统一的 Waymo 基础模型。

与纯端到端或高度模块化方案不同,Waymo 的基础模型本质上是一个“世界模型”,通过高维嵌入向量在模型内部实现端到端学习,保留了对象、语义属性、道路结构等紧凑、可物化的结构化表示。

混合式设计看似复杂,但工程价值极高,允许模型学习复杂行为,又为安全验证、物理一致的闭环仿真以及可解释评估提供了抓手。

Waymo 在努力追求“模型为什么这么做、在什么边界内这么做是安全的”。

在模型形态上,Waymo 进一步引入了“快思考”和“慢思考”的双系统架构。

◎系统一是实时传感器融合编码器,融合摄像头、激光雷达和毫米波雷达数据,快速生成对象和语义理解,用于毫秒级安全决策;

◎系统二则是车辆逻辑模型 VLM,基于视觉语言模型和更广泛的世界知识,对罕见、复杂甚至反常的场景进行语义推理。

解决的是端到端模型普遍存在的“常识盲区”问题当道路上出现并非几何意义上的障碍、但语义上极度危险的事件时,系统仍然知道应该规避,而不是机械地沿着可行驶空间前进。

备注这个概念是不是大家很熟悉,拉开差距的是 Waymo 如何让这些模型持续、安全地进化。

Waymo 明确区分了“教师模型”和“学生模型”。教师模型规模巨大,用于生成高质量驾驶策略、构建高保真模拟世界以及进行极其严格的行为评估;学生模型则通过知识提炼,继承教师模型的能力,并被压缩到可以在车端实时运行、在云端大规模仿真的计算规模内。

这种做法的本质,是用大模型探索能力边界,用小模型承担工程落地责任,同时避免把尚不可验证的复杂 slicon 直接放进车里。

在此基础上,Waymo 构建了一个闭合的学习飞轮。

◎评价系统会从真实的全自动驾驶日志中,自动识别任何不理想或边缘的驾驶行为;

◎这些行为被转化为改进样本,用于训练驾驶员模型;

◎新的策略必须先在高强度模拟环境中经历压力测试,再由安全框架进行风险验证,只有通过所有关卡,才会被部署到真实道路。

这个过程看似缓慢,但它解决的是一个行业长期回避的问题如何在能力不断增强的同时,保证系统风险不会“隐性累积”。

Waymo 现在拥有的并不只是“数据多”,而是海量、持续增长的全自动驾驶真实数据,无法通过人工驾驶或简单仿真复制,因为只有在完全无人控制的情况下,系统才会暴露出真实的决策模式和潜在缺陷。

Waymo 将这些数据直接纳入训练与评估飞轮,使得系统不是从“人类经验”中学习,而是从“自身完整自动驾驶经验”中进化,这一点在行业内几乎没有可比对象。

小结

Waymo 这次披露的是一种方法论,在特斯拉咄咄逼人的进步下,Waymo讲的是在自动驾驶进入规模化运营阶段之后,壁垒不在于谁的模型更大、参数更多,而在于谁能建立一套可验证、可迭代、可规模复制的安全体系。

原文标题:Waymo“可验证安全”的自动驾驶人工智能