国漫手机壁纸

对不起,自动驾驶做不到零事故

文/李根ligen@qbitai.com量子位出品公众号QbitAI自动驾驶=无事故?蔚来首例NIOPilot致死车祸后,关于自动驾驶安全相关的话题讨论,愈演愈烈,一场信任危机正在殃及所有玩家。甚至还形成了两极代表观点:一极认为,“自动驾驶事故”面前,应该对所有的自动驾驶展开重估

NetSmell 出品

  文/李根 ligen@qbitai.com

  量子位出品公众号 QbitAI

  自动驾驶=无事故?

  蔚来首例 NIO Pilot 致死车祸后,关于自动驾驶安全相关的话题讨论,愈演愈烈,一场信任危机正在殃及所有玩家。

  甚至还形成了两极代表观点:

  一极认为,“自动驾驶事故”面前,应该对所有的自动驾驶展开重估,因为技术能力有如此明显缺陷,人命关天。应该叫停研发,禁止推广,从根本上杜绝类似事故。

  另一极强调,辅助驾驶的锅,不能让自动驾驶背,“真正的自动驾驶”就会有绝对的安全,自动驾驶=无事故。

  一方限制,另一方辩护。

  但对不起,都存在认知偏差,都可能阻碍一项利国利民造福人类的新技术健康发展。

  既不能因噎废食,也不宜把自动驾驶与零事故划上等号。

  不过确实是时候,正本清源,厘清技术野蛮生长期里遗留的种种历史问题了。

  自动驾驶历史遗留问题?

  最首要的就是自动驾驶技术等级划分,以及翻译用语加剧的“误解”。

  就在蔚来事故热议中,理想汽车创始人李想、投资入局造车的 360 董事长周鸿祎,以及威马汽车创始人沈晖,也都是围绕自动驾驶技术等级相关的问题展开的讨论。

  有人说他们是作为友商在“落井下石”,但如果深入了解了他们口诛笔伐的“专业黑话”和统一用语倡议,就会真切感知——他们这是唇亡齿寒危机感下的自发自救。

  因为自动驾驶技术等级相关的历史遗留问题一日不明,行业野蛮生长、劣币驱逐良币的现状就会始终得不到改变。

  所谓的自动驾驶技术等级,核心就是这张图:

  其中的 level(水平\等级),就是L几的“行业技术黑话”。

  L2,就是 level 2,也就是第二等级水平。

  L3,就是 level 3,也就是第三等级水平。

  这套“等级”标准,跟一家名叫 Society of Automotive Engineers 的组织有关,简称 SAE,中文叫美国工程师学会。

  在 2014 年全球自动驾驶研发,开始第一次欣欣向荣之际,SAE 牵头制定了一套自动驾驶技术等级标准。

  目标是希望通过划定不同的等级,可以指引行业针对性发展。

  整个等级标准的制定,参考了很多影响因素。

  但最核心的可以归纳为一个:

  AI 系统在汽车驾驶中的参与程度。

  整个标准,被分为了 6 个级别。

  0、1、2、3、4、5。

  L0,AI 参与程度最低,基本就是应急情况下辅助一下。

  L5,AI 参与程度最高,高到整个驾驶行为完全不需要人类的地步,也被叫做完全无人驾驶。

  比如现在常听到的 RoboTaxi 无人驾驶出租车,或者是不再搭载刹车油门脚踏板和方向盘的智能车,就是朝着 L5 方向上的努力。

  在这 6 个等级中,有一个关键分水岭——L4。

  L4 以下,人类驾驶员都是驾驶行为的最终责任人。

  L4 及以上,AI 系统就是最终责任人。

  L4 是权责界限的分水岭。

  换而言之,L4 以下,无论是 L2 还是 L3,都是人机共驾模式,AI 系统提供的都是辅助能力。

  区别在于,L2 是你操作什么,AI 就执行什么,比如车道居中保持、自适应巡航控制,以及你命令变道然后 AI 来伺机变道……都是 L2。L2 情况下,AI 完全不“思考”,也不主动做决策。

  而 L3,最大的不同就是 AI 开始能帮司机做决策了。最简单的例子就是,什么时候变道,人类司机不用再给指令。

  在驾驶过程中,AI 会根据你的行程和路况来进行决策,甚至能在高速和环路等非开放路况的场景下,帮助完成绝大部分的驾驶行为。

  只是这个阶段,人类依然是驾驶行为的核心决策者,所以特殊情况、紧急决策,依然需要人类驾驶员来执行。

  所以现阶段,各家产品有叫法上的不同。

  NOA、NOP、NGP……但基本都是指在高速、环路等路况相对可控的场景的 AI 驾驶辅助。

  援引 SAE 制定的术语和翻译用语,他们确实可以被叫作“L2 自动驾驶”、“L3 自动驾驶”,甚至还有“L2.5 自动驾驶”……

  但归根结底,又都是辅助驾驶,都是 AI 提供辅助能力,最终驾驶的决定权,依然在于车主。

  这也意味着,如果发生事故,提供这种“AI 辅助”能力的提供方,有“最终驾驶决定权归车主”的空子可用。

  问题是,自动驾驶本身已是新事物,技术等级标准更是“行业黑话”,普通车主和用户,都缺乏完备认知……加之利益相关的技术提供方,还可能在售前只谈“自动驾驶”,利用认知偏差造成误导。

  这是为什么会出现“买前自动驾驶,出事辅助驾驶”,以及“车主未能正确使用”之类的神调侃、神回复。

  所以现在出了事故,这套 SAE 技术等级标准和翻译问题,确实难辞其咎。

  这也是为什么到了行业需要统一用语的时候——用户的信任和监管信心,经不起类似事故挑战了。

  但客观来说,锅也不全在 SAE。

  因为就在 2014 年制定等级标准时,他们看到了 RoboTaxi 的终极目标,却难以预料,围绕自动驾驶技术发展,会走出不同主张的两条路线。

  自动驾驶的两大路线?

  特斯拉路线和 Waymo 路线。

  最初 SAE 制定标准时,这两大路线,只是推进自动驾驶的不同主张。

  还没到开花结果,产生实际影响的阶段。

  而这两大路线,本质就是以 L4 作为分水岭来实践的。

  刚才也说了,L4 是一个——人类是否在驾驶行为中起决定性作用——的分界线。

  其中,以特斯拉为代表,希望从 L4 以下迭代到 L4 以上,后来被称为量产自动驾驶。

  以谷歌集团中的 Waymo 为代表,则认定只有直接从 L4 开始,才是符合“安全初心”的做法,后来进一步作为区分被称为完全无人驾驶。

  两大主张和路线之间,也时常你攻我伐,口水仗一直未间断。

  而且这两大路线的开创者和最早实践者,其实都是谷歌。

  但后来,谷歌认定不能走后来被称为“特斯拉路线”的方案。

  因为特斯拉路线,认为自动驾驶可以在人机共驾的状态下、在驾驶数据迭代下,不断向上升级,最终从 L2 一直升级到 L5。

  特斯拉所谓的“影子模式”,就是在这种人机共驾的状态下,让 AI 学习人类的驾驶行为。

  比如处于 AI 驾驶状态时,忽然遭遇了困难,由人类接管完成了挑战,就会被系统标记,其后由 AI 模型训练和学习类似的问题,然后得到模型提升。

  实际上,特斯拉路线也不断展现其可能性和可行性。

  从这几年来看,特斯拉的自动驾驶能力,进步确实有目共睹。

  而且特斯拉路线的优势,集中体现在成本和规模化数据迭代上。

  车卖到的地方,就是它开启自动驾驶“路测”的地方。核心要求是能卖更多车,并且“自动驾驶”方案的软硬件成本,在用户可承受范围内。

  另外,特斯拉路线也存在明显的悖论。

  一方面,量产自动驾驶可以替代人类车主在一些场景下驾驶,但另一方面又要求司机在紧急情况下接管汽车。

  这就要求一个长时间放松的人,必须还要时刻专注在车程中。

  换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。

  很多车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度信任特斯拉视觉感知系统的能力。

  于是当“老师点名提问”来临,他们往往措手不及。

  然而,开车上路,事关生命安全,代价有时是极其惨重的。

  之前马斯克说,车主用了自动驾驶就回不去了。

  被吐槽说,有些车主确实“回不去了”。

  而且这个悖论下,特斯拉不是个例。

  只要是人机共驾状态下,你不能要求所有司机,一边状态放松,另一边还能随时接管。

  人,一直是驾驶行为中最不确定的因素。

  也正是出于人性和“悖论”的洞察,谷歌(Waymo)主动改弦更张,决定挑战更难的完全无人驾驶路线。

  作为全球这一波自动驾驶商用浪潮的开创者,谷歌最初也是希望打造一套人机共驾的系统,逐步实现 RoboTaxi 的 L5 终极目标。

  但后来研发和测试阶段,就发现驾驶决策中只要有最大不可控因素——人类——存在,就没有真正的安全保障可言。

  当时随着研发的系统越来越完善,测试车上路后被接管的次数越来越少,导致有些工程师干脆跑到后座去……

  于是谷歌开始重新思考自动驾驶的推进路线。

  因为从初心来讲,谷歌决定重金砸向自动驾驶,就是为了用稳定娴熟的 AI 驾驶,提高人类整体驾驶水平,有效减少大量的交通事故。

  安全既是出发点,也是最终归宿。

  但如果无法 100% 控制全局,比如即便相对成熟的 AI 驾驶系统给了一个不太负责任的人类司机,最后由于司机过度信任,在遭遇极端场景时无法有效接管,就会造成安全事故。

  当然,也有一种说法,“事故”也是 AI 系统 debug 的过程。

  但用这样的方式来推进自动驾驶,一将功成万骨枯,是不是太过冷酷无情?

  所以谷歌之所以是谷歌,并非没有原因,他们决定选择更难的一条路:

  直接 L4。

  直接把代表不确定因素的人类,从驾驶位上赶下来。最终产品形态,就是 RoboTaxi。

  于是这条直接 L4 的路线,也就被叫做 Waymo 路线。

  这是一条先路测,在一个足够安全有保障的成熟系统之后,再开启量产和商用的路线。

  这条路线优点显而易见,安全至上,成本优先级不算高,可以用最冗余的传感器方案来保障安全——毕竟车不面向C端销售。

  但缺点也很明显,推进起来没那么快,商业化和规模化的速度,也严格受限。

  在 Waymo 路线上,所有的研发、落地成本,都需要自己承担,规模化盈利,更是遥遥无期。

  所以这 2 年来,特斯拉和 Waymo 在资本市场遭遇了两极待遇。

  特斯拉市值股价节节高升,Waymo 的估值被一而再下调。

  而也是这种此消彼长之间,还长出第三种路线:

  Cruise 路线。

  直白讲就是“融合路线”,把 Waymo 的“L4 级自动驾驶技术”,兼顾成本之后,落在量产车上使用。

  总之,一方面是看到了特斯拉路线的“数据迭代”之力,另一方面又希望通过 Waymo 路线来增强安全保障。

  但即便如此,只要没有摆脱“人机共驾”模式,人性悖论和权责归属的问题,就始终没有消除。

  安全隐患,也就无法根治。

  所以问题也就来了,既然现阶段的自动驾驶无法根治安全问题,为什么还要发展?

  还是烧那么多钱、给那么多有利政策来支持发展?

  自动驾驶≠无事故,但只有自动驾驶才能根本上减少事故

  是的,确实有理想化观点这样认为:

  发展自动驾驶,让天下没有交通事故。

  也对,但也不对。

  对,是因为如果果真达到了理想化情况,路上皆自动驾驶车辆,或许就不会有“加塞”、“不文明驾驶”、“违规违掌”的行为了,车车都文明,车车都上路稳妥又认怂,交通秩序跟自动化流水线一样井然有序。

  但之所以也不对,是因为这种理想化观点,不符合数学和技术规律。

  于本质来看,自动驾驶,机器开车,是一个计算机问题,更是一个数学问题,在这道题中,始终存在一些细微的变量,让事故概率不可能完全为0。

  更何况,自动驾驶面对的复杂长尾场景和状况,事故概率,也不可能为0。

  所以自动驾驶=无事故,并不成立,也没有谁能打包票。

  然而即便如此,自动驾驶依然有着更高的安全性,也是目前消解人类交通事故最接近本质的方法。

  人类驾驶为主的交通安全,有着怎样的现状?

  援引去年 12 月“第九个全球交通安全日”的数据,在机动车保有量超过 3.6 亿、机动车驾驶人达到 4.5 亿的中国,每年就有数万人丧生于交通事故。

  更直观的换算,平均每 8 分钟就有 1 人因车祸死亡。

  全球范围内,按照 WHO 在 2018 年披露的数据,全球每年因道路交通死亡人数高达 135 万人,意味着每 25 秒就有一人在交通中丧生。

  其中,发生交通事故的主要原因,是最大的不确定性因素——人类司机。

  无论中外,按照数据统计,肇事突出的 10 大交通违法行为分别为:未按规定让行、超速行驶、无证驾驶、醉酒驾驶、未与前车保持安全距离、逆行、违反交通信号、酒后驾驶、违法超车、违法会车。

  同时,还有酒驾醉驾、“三超一疲劳”、闯红灯等交通违法违规行为。

  但如果替换成 AI 司机,这些隐患行为和因素,就会从根本上被杜绝。

  AI 司机不仅不会有人类司机的疲劳驾驶、醉驾酒驾、情绪化,以及各种危险驾驶和不文明驾驶行为。

  而且还拥有人类无法“规模化复制”的优势,一个 AI 老司机养成,即意味着成千上百“AI 老司机”ready——相对应的是,人类从新手上路到老司机养成,绕不开线性时间和路上的磨砺。

  所以大道直白,虽然自动驾驶无法保证天下再无事故,但有自动驾驶,替代了交通中最大的不确定因素,一定能让交通更安全。

  此外,还有一组数据也可对比。

  量产自动驾驶路线中,事故曝光率最高的特斯拉,凡有事故几乎无处隐藏。

  所以也有好事者,统计了特斯拉及 AutoPilot 造成的事故和伤亡情况。

  统计显示,从特斯拉 2013 年第一起曝光的事故至今,全球因特斯拉事故造成的死亡人数达 201 人,其中 9 人与 AutoPilot 相关。

  Waymo 路线上,全球唯一一起无人车致死车祸,由 Uber 测试时造成。

  而对比起来,全球每年有 135 万人在道路交通中丧生。

  虽然这几年中,自动驾驶依然是一个新业态,方兴未艾,还远未达到数量上的普及,但上述两组数据和频率,依然能见微知著。

  所以即便自动驾驶≠无事故,但只有自动驾驶才能根本上减少事故。

  更何况,现如今正在有越来越多冗余来加强安全。

  比如车端的传感器冗余、安全冗余,运营过程中的冗余,以及中国正在高速推进的路端基建——车路协同带来的更高维度的冗余。

  在这些多重冗余保障之下,如果真正来到“全部自动驾驶”状态,事故中的不确定性,还将进一步趋近于0。

  有设想是,这些基础设施完善后,可以保障所有上路的车辆都由自动驾驶,不再有人机共驾,也不再有人类驾驶的车辆和自动驾驶车辆混行。

  人类司机,这个道路交通上最大的不确定性因素,也就没有了。

  甚至跟汽车替代马车一样,人类驾驶行为就跟骑马行为一样,变成了一种娱乐活动,甚至如果不是特许的道路,人类驾驶行为还会违规违法。

  自动驾驶将完全接管城市出行网络。

  这个网络中,电动车(新能源)、共享出行、车联网,以及智能化都实现了串联。

  车随用随叫,可以不再需要停车,没电了自动规划去充电。

  真正实现了高效、绿色、安全和低碳环保可持续,车真正变成了“使用载体”,而不是“拥有主体”,私家车从此退出历史舞台。

  这个网络之下,自动驾驶车辆可以一体化运营、调度,就像现在的通信运营模式一样。

  所以这也是为什么,业内还有另一个隐而未宣的观点,认为自动驾驶背后,也有 5G 一样的“标准”之争。

  因为自动驾驶不是单一的一项技术,是一个从无到有、从个例到规模化落地的系统生态。

  而且这不是一个地区、一个国家才需要的系统,是全球各地都需要的系统。

  对于这个系统,谁最先拥有完备的方案和技术能力,就能成为标准的制定者,就能主导整个落地生态的发展。

  也正是如此,在美国“奇货可居”的先进技术限制出口中,自动驾驶地位很高。

  但自动驾驶的技术发展和迭代,离不开大规模的数据和丰富的场景。

  这也是中国在自动驾驶落地上,越来越展现出优势的关键原因。

  原本就跟全球处于同一起跑线,现在还有丰富和最具挑战的路况数据、场景。

  所以这也是为何自动驾驶的发展,更加不能因噎废食。

  因噎废食不仅无法根本上解决问题,而且还误国误民,流弊千秋。

  根本上,自动驾驶不仅是一项先进技术,还事关智慧交通、智慧城市等面向未来的全球标准和话语权,甚至是经济发展和 GDP 的新动力引擎之一。

  不过,现阶段自动驾驶发展,也不是没有安全路径上的可完善之处。

  更安全发展自动驾驶,还能做什么?

  既然问题已经出现,就是时候在热议中推动形成共识。

  实际上,在监管和政策层面,中国可能已经是全球最谨慎的国家。

  特别是在之前自动驾驶和 RoboTaxi 测试的资质和牌照发放中,从程序到过程,比美国加州 DMV,严格太多。

  根据中国目前官方唯一的自动驾驶路测报告:《北京市自动驾驶车辆道路测试报告》披露,考核标准相当严苛。

  无论从公开道路的长度、还是标准制定程度上来看,都堪称细致。

  还专门设置了 64827 公里的无人化测试验证,确认了测试技术的可行性、及测试方法和参数的可靠性。

  而更早之前,有安全员的自动驾驶路测,也从牌照发放和运营等多重维度作出明确要求。

  也是这种监管之下,国内路测里程最多的百度 Apollo,完成多个城市 RoboTaxi 落地运营,有 1400 万公里的实路路测后,能够做到零事故。

  国外,Waymo 再次开行业风气之先,在去年发布了“事故报告”。

  披露了从 2019 年初到 2020 年 9 月,RoboTaxi 落地期间的事故情况。

  显示在 Waymo 的 610 万英里(982 万公里)路程中,包含没有安全员的完全无人驾驶的测试里程也有 65000 英里(10 万公里),总共出现过 18 次事故,另外还有 29 次被安全员干涉得以避免的潜在事故。

  但这些事故有两大共同特点:

  第一,没有一起严重到危及生命。

  第二,无一起主动事故,都是其他人类驾驶车辆造成的被动事故。

  所以对于 RoboTaxi 方向上的自动驾驶,从监管到测试,一直有数据支撑的安全可信印象。

  但量产自动驾驶——或者更准确来说,需要人机共驾的辅助驾驶,之前有灰色地带可走,处于野蛮生长。

  一度只有道德标准,没有严格的监管法规。

  但这种日子也正在成为过去时。

  国内,8 月 12 日,工信部印发了《关于加强智能网联汽车生产企业及产品准入管理的意见》,对智能车在数据和安全方面,作出了明确规定。

  其中最引人注目的,就是针对涉及自动驾驶功能的产品管理,按照使用前后做了不同层级的要求明确,强化车企在安全方面的责任。

  并且明确规定,自动驾驶相关的功能 OTA 要先过审批。

  国外,特斯拉 AutoPilot 相关的事故,也开始被美国管理机构立案调查。

  所以即便是擦边球路径上的“量产自动驾驶”,野蛮生长期也到头了。

  只不过蔚来事故之前,“完全无人驾驶”和“量产自动驾驶”两大路线之间,有争论有口水仗,双方以为可以各自为战。

  然而谁能想到,在事故后的不信任危机里,舆论不分“路线”,所有人都被同一条船视之。

  一荣俱荣,一损俱损。没有谁能独善其身。

  不管是L几的技术,不管是量产自动驾驶路线,还是完全自动驾驶路线。

  不管是车厂、供应商,还是系统技术玩家。

  所以一切是时候了。

  是时候以这次事故为鉴,直面一直存在的认知和信任危机。

  而且只有所有玩家团结一致,达成公约,才能让发展更安全、可持续。

  至少是时候改变,且有三件事可以从我做起:

  第一,规范使用行业用语,统一表达,明确权责归属。

  但凡人机共驾,需要司机、车主紧急接管的,一律都叫辅助驾驶。

  否则出现事故,无论是不是“车主未能及时接管”,都应由能力提供方承担责任。

  无需司机、车主紧急接管,或者责任明确就是技术服务提供方,才能以自动驾驶作为宣传。

  第二,辅助驾驶的上车,还要有多重安全冗余配合。

  不仅需要在使用前,明确向车主表明辅助驾驶系统的利弊,加强功能使用端的准入考核和监管。

  还需要防止不靠谱车主,轻而易举就可以绕过“辅助驾驶”开启的必要规则,以及双手离开方向盘、注意力不集中等危险驾驶行为。

  此外,DMS 等驾驶行为监测,应该成为辅助驾驶的标配,不仅是保护车主安全,也是保障其他路上交通参与者的安全。

  私自加装“作弊器”等行为,应该要与危险驾驶行为一样被对待。还有必要主动呼吁打击销售“作弊器”的行为,呼吁立法监管,由各大零售平台打击,不能让如此等同谋财害命的行为,大行其道。

  第三,定期主动披露安全机制和数据。

  安全机制可以增进行业信任,“安全\事故报告”能够让一切更公开透明,唯有摆脱“谈事故色变”、“讳莫如深”的心态,行业才能真正健康良性发展。

  这也是不断科普,帮助公众更加准确了解自动驾驶能力、状态和阶段的必要手段。

  总之,事故当前,信任危机当前,警钟为所有自动驾驶玩家而鸣。

  如果此时此地,还不能用更具公约的方式,发展和推动自动驾驶安全和信任,等到更大危机到来,没有人能置身事外。

  如果依然要在“辅助驾驶”、“自动驾驶”等行业话语上争论不休,如果让每一次“自动驾驶事故”成为舆论焦点,如果行业玩家都不得不“夸张宣传”才能不显得落后……

  雪崩到来,没有一片雪花无辜。

  一切是时候了。

  (注:作者为量子位主编,专栏仅代表个人观点)

  参考:

  特斯拉事故统计:

  https://www.tesladeaths.com/

  Waymo 自动驾驶报告:平均 21 万公里一次事故,严重事故都是人类司机的锅

  https://storage.googleapis.com/sdc-prod/v1/safety-report/Waymo-Public-Road-Safety-Performance-Data.pdf

  WHO 道路交通死亡人数报告

  https://news.un.org/zh/story/2018/12/1024371

显示余下内容
相关文章:
  1. 信用卡 PIN 码很容易猜测
  2. 神经元簇发能模拟 AI 学习策略
  3. 蜘蛛丝可能根本不具有抗菌性质
  4. 佳能因禁止无墨水打印机扫描被起诉
  5. DeepMind盈利后开始「买买买」!收购机器人模拟平台MuJoCo,全面开源
  6. 分析师:新MacBook Pro搭载自家芯片,苹果利润率更高了
  7. 格芯提交上市申请IPO,筹资约26亿美元
  8. 美股周二:中概股普涨 阿里涨超6% 高途涨逾12%
  9. 搭配自研处理器与安卓12,谷歌新机Pixel 6起价599美元
  10. 摩根士丹利:马斯克有望凭SpaceX成首位万亿美元富豪
  11. 《鱿鱼游戏》助奈飞三季度新增用户翻倍,股价近新高
  12. DOTA 2又上热搜了 为什么这次大家到处刷“猛犸”?
  13. 多位游戏巨头联合希望美国政府监管盗版和作弊网站
  14. Google Play Data Safety开始接受开发者申请:2022年将强制执行
  15. 价格欺诈投诉引发公益诉讼 京东“划线价”格式条款须整改
 

发表回复

您的电子邮箱地址不会被公开。