一辆车违法掉头,警察把它拦下,车里没人。
这事听起来像自动驾驶段子,实际发生在加州。去年9月,San Bruno警方发现一辆Waymo无人车在红绿灯前非法掉头,拦车后却没法按传统方式开罚单,因为没有驾驶员。最后只能联系公司,对方说这是一个“glitch”。
加州现在要补这个洞。
7月1日起,加州DMV的新规生效:无人驾驶车辆违反交通法规,警方可以向制造商发出“AV不合规通知”。车辆进入活跃应急区域,也可能触发处罚。自动驾驶公司还必须在30秒内回应警方、消防等应急人员的呼叫。
这组细节把问题说得更清楚了:加州不是只在讨论“无人车能不能罚”,而是在把交通违法、应急响应、现场优先级,统一塞回一条责任链里。
发生了什么:车里没人,不等于没人负责
这套规则来自加州2024年更大范围的自动驾驶监管法律。DMV称其为美国最全面的自动驾驶监管规则之一。
几个关键点压缩如下:
| 规则点 | 变化 | 直接影响 |
|---|---|---|
| 交通违法 | 警方可向AV公司发“不合规通知” | 违法不再卡在“没有驾驶员” |
| 应急呼叫 | 公司需在30秒内回应警方、消防等呼叫 | 远程运营不能装作离线 |
| 应急区域 | AV进入活跃应急区域可能被处罚 | 消防、警务场景优先级提高 |
| 适用对象 | robotaxi运营商与获准测试AV公司 | Waymo、Tesla等都会面对更硬约束 |
这里要说准:这不是加州已经开始大规模罚款,也不是Waymo或Tesla已经因此受罚。新规还没到生效日。BBC报道称已联系Waymo和Tesla置评。
但方向已经很明确。
过去,法律默认一辆车有司机。自动驾驶把司机拿掉后,执法系统就像撞上一个语法错误:车违法了,但传统处罚对象消失了。
加州这次改的,就是这个语法。
为什么重要:30秒回应,比算法口号更现实
自动驾驶公司最爱讲两句话:机器会越来越聪明,机器长期会比人更安全。
这两句话都可能成立。
但它们不能替代责任。
旧金山已经给过提醒。去年一次大停电中,多辆Waymo停在繁忙路口,加剧交通拥堵。旧金山消防部门也长期抱怨robotaxi妨碍应急响应。
对乘客来说,那可能只是“车傻了一下”。对消防车、救护车、现场警员来说,几分钟就是秩序成本。
所以我更在意30秒回应这条。
它看起来像流程要求,实际是在重新分配权力。你把无人车放进真实街区,拿路权、拿数据、拿商业收入,就不能把现场麻烦留给警察、消防和普通司机消化。
城市道路不是实验室地板。路上有孩子、救护车、施工区、火警、停电、临时封路,还有一堆算法训练集里未必优雅出现的脏场景。
无人车最怕的不是偶发错误。人也会犯错。真正麻烦的是,错误发生后,没人能在现场承担人类社会需要的那种责任。
接电话,是最低限度的承担。
谁受影响:车企压力最大,应急部门最先受益
受影响最大的不是普通乘客,而是两类人。
一类是自动驾驶运营商和测试公司。
Waymo这类robotaxi服务,Tesla这类被纳入自动驾驶测试与运营压力范围的公司,都要面对更明确的合规要求。以前一个“glitch”可以先把事情讲软。以后,至少在加州,车辆行为会被制度化记录,公司不能只把问题放进内部工程待办里。
这对车企不是小麻烦。
因为自动驾驶的商业模型一直在追求规模:更多城市,更多车,更多里程,更低人力成本。监管现在插进来的问题很朴素:你省掉车里的司机之后,远程责任、应急响应、现场处置,准备由谁补上?
另一类是应急部门。
消防、警察、救护系统最怕的不是新技术,而是不听指挥的新技术。活跃应急区域里的道路秩序,不能按商业运营优先级来排。
这条规则给了他们一个更清楚的抓手:不是事后抱怨“无人车又挡路了”,而是可以要求公司在规定时间内进入响应状态。
普通用户也会受影响,但没必要夸大。
乘客短期内感知到的,可能只是车辆在某些区域更谨慎,运营公司处理警务、消防场景更严格。长期看,如果合规成本上升,robotaxi扩张速度和服务边界都会被重新计算。
便宜、方便、无人化,都不是免费的。
真问题不在车会不会犯错,而在谁来结账
“天下熙熙,皆为利来。”自动驾驶商业化当然没错。公司投了钱,工程师熬了夜,城市也希望新技术带来效率。
但公共道路不是给企业免费试错的真空管。
自动驾驶行业过去有一种很熟悉的叙事:先让技术跑起来,问题在规模中解决。互联网平台这么干过,网约车这么干过,外卖平台也这么干过。先扩张,后治理;先占位置,再谈规则。
这套打法在软件世界里已经让社会吃过不少账。到了道路上,成本更硬。
早期汽车进入城市时,也不是靠工程师一句“马车时代结束了”就获得合法性。车牌、限速、保险、责任认定、交通警察、道路标识,这些东西把新机器一点点塞进旧秩序。
无人驾驶现在走到类似关口。不完全一样,但底层逻辑相通:技术想上路,必须先被治理。
我不太买账的是那种“只要无人车整体事故率低于人类司机,就该给它更多宽容”的说法。
事故率当然重要。但城市治理不是只看平均数。
一辆人类司机开的车违章,至少现场有一个可询问、可处罚、可临时指挥的人。无人车如果在路口宕住、在应急区域误入、在警察面前无法理解指令,平均安全率再漂亮,也挡不住现场系统失灵。
模型看着更强,产品反而更虚。虚就虚在责任接口没有补齐。
加州这条新规没有解决所有问题。它没有判断模型到底多聪明,也没有拆开每一家公司的算法黑箱,更没有定义所有极端场景。
但它把讨论往前推了一步:机器犯错后,公司必须进入现场秩序。
这比空谈“AI会更安全”有用。
接下来该看什么:处罚不是重点,执行才是硬骨头
接下来最该看的,不是加州会不会开出第一张罚单。
更关键的是三件事。
- 30秒响应怎么验证.是电话接通就算,还是必须能给现场人员有效指令?
- 不合规通知怎么累积.多次违规后,是警告、罚款,还是影响测试和运营许可?
- 应急区域如何定义.临时封路、火警现场、事故处理区,边界谁说了算?
这些执行细节,才会决定新规是纸面约束,还是能真把车企拉回责任桌上。
如果只发通知、不影响牌照、不影响运营,企业会把它当作合规成本。像停车罚单一样,算进预算。
如果违规记录会影响许可、扩城、车队规模,那性质就不同了。自动驾驶公司会把“听得懂警察和消防”当成产品能力,而不是公关部门的道歉话术。
这才是监管该逼出来的东西。
不是逼技术停下来,而是逼它带着责任上路。
加州这次少见地做对了。它没有陷入“支持创新还是反对创新”的废话框架,而是问了一个最土、也最硬的问题:出事时谁接电话,谁承担后果。
车里没人,不该成为制度盲区。
无人驾驶如果真要成为城市基础设施,就不能只证明自己会开车。它还得证明自己懂规矩、听指挥、能被追责。
否则所谓智能,只是把司机藏进云端,把责任留在路口。
