发布时间:2021-08-18 19:18:55来源:腾讯汽车
8月18日,郑先生对腾讯汽车表示,取证工作并不顺利,家属再三要求蔚来提供后台数据,认为作为软件的购买者,他们有权知道软件后台的情况。目前,家属对蔚来提供的数据的完整性和安全性仍表示质疑。

作者|毕然
编辑|傲敦
自动驾驶技术的理想态是减少车祸和死亡人数,如今这项技术却沦为一场交通事故的最大“疑犯”。
8月14日晚,名为“美一好”的公众账号发布了一则讣告,称林文钦,上善若水投资管理公司创始人、意统天下餐饮管理公司创始人、美一好品牌管理公司创始人,于8月12日驾驶蔚来ES8时在沈海高速涵江段发生交通事故,不幸罹难。
讣告中提到,“发生事故时蔚来ES8启用着自动驾驶功能(NOP领航状态)”。当晚,该事故和蔚来成为热搜话题。
8月14日晚间,治丧小组成员郑先生对腾讯汽车表示,“蔚来福建闽南区负责人亲口对交警说,后台数据显示当时车辆是处在自动驾驶(NOP),是这个状态导致的车祸。”蔚来方面表示,“蔚来没有提供自动驾驶服务,NOP是领航辅助功能”。
8月18日,莆田交警发布警情通报称,2021年8月12日14时18分许,林某某驾驶闽CD5XXX号电动汽车在沈海高速公路莆田市涵江段追尾碰撞前方同车道由李某某驾驶正在施工作业的闽A95XXX号轻型普通货车后侧,造成电动汽车驾驶人林某某当场死亡,货车乘车人王某某受伤,两车不同程度损坏的道路交通事故。
通报称,公安交警部门将在事故调查基础上依法做出责任认定。
截至发稿,交警还未公布调查结果和最终责任认定书,当事双方仍“各执一词”,舆论矛头直指蔚来和其提供的NOP领航辅助驾驶功能。NOP到底具备怎样的能力?作为技术提供方,蔚来是否有夸大宣传?“各执一词”的背后原因又是什么?谁来承担事故责任?
毋庸置疑的是,悲剧不会阻碍技术进步,技术更不应该靠悲剧倒逼“进步”。透过蔚来ES8事故,或许人们更应该反思,当自动驾驶面临技术激进与商业克制的博弈时,我们该如何为它和为自己做出选择?
责任认定推定存两种可能
8月12日,蔚来ES8车主林文钦发生交通事故不幸去世,目前官方仍未给出调查结果。
据林文钦的事业合作人介绍,去年11月,林文钦在其引荐下购买了一辆蔚来ES8,车辆行驶里程为两万多公里。讣告文显示,发生事故时车辆NOP在开启状态下。
郑先生提供给澎湃新闻的行车数据显示,林文钦最近一次驾驶里程为85公里,总时长113分钟,平均车速为45.1公里每小时,最高速度为114.6公里每小时(限速120千米每小时)。
其中,NP(NIOPilot)里程72公里,NIOPilot自动辅助驾驶功能的使用总时长48分钟,领航辅助里程68公里,时间44分钟。在整个行程过程中,只出现一次急加速现象,并没有急减速的现象。
不过,上述细节并未得到蔚来方面的官方确认。
8月14日,也就是与“美一好”公众账号发布讣告同一天,蔚来厦门区域公司总经理张波在蔚来APP里公布了该事故,并表示“正在配合当地交警等有关部门进行事故调查,并将协助用户家属做好善后工作。”
8月16日,有传言称,蔚来工程师在未经警方和家属允许私自接触事故车。晚间,蔚来发布公开声明,并首次透露事故调查进展。
蔚来方面表示,当天(8月12日)下午17点多,蔚来服务人员在事故车停车场进行了断电作业该作业本身不会造成数据丢失。8月13日下午,经相关方要求,在林先生家属的委托人和警方的见证下蔚来技术人员进行了第一次现场数据提取。8月16日下午,蔚来总部技术团队到达莆田配合警方及司法鉴定机关进行下一步数据读取作业。
“从事故发生至今蔚来一直积极配合相关部门的事故调查工作按程序提交调查所需资料。”在公告中,蔚来称为了表达对死者的尊重在调查结果最终确认之前,不会再发布关于此次事故的信息。
8月17日午间,腾讯汽车从郑先生处获悉,“昨天(16日)警方没有取证,计划今天(17日)下午开始。”据了解,警方、家属、蔚来还有第三方机构将一起参与数据读取和其他相关取证工作。
8月17日晚间,腾讯汽车致电莆田高速交警询问事故调查进度,对方称“这个案件目前还在调查中,无法告知任何信息,调查结果后续由宣传部门对社会公布。”
最新消息是,8月18日,郑先生对腾讯汽车表示,取证工作并不顺利,家属再三要求蔚来提供后台数据,认为作为软件的购买者,他们有权知道软件后台的情况。目前,家属对蔚来提供的数据的完整性和安全性仍表示质疑。
数据提取过程中,鉴定机构成为关键一环。林文钦家属委托代理的林丽鸿律师表示,“目前虽然已经换一家了,但是这家鉴定机构仍然对于新能源汽车的技术不是非常了解。”因此,鉴定机构的选择及数据的“安全”“完全”提取,可能会是一个持久过程。
由蔚来ES8事故引发的“自动驾驶杀人”舆论和调查仍在持续。眼下,如何认定事故责任成为外界关注的焦点。
“这起事故中,值得关注的一个问题是‘自动驾驶’在我国现行法律规定中的合法性问题。”北京六辰律师事务所执行主任黄莉凌律师对腾讯汽车表示,按照我国目前现行有效的道路交通安全法及相关法律法规,自动驾驶车辆只允许在经申请批准后,在指定区域、指定时段内测试。
黄莉凌认为,发生事故的蔚来车辆作为合法上市交易的车型,其相关功能应当符合我国相关法律规定,而(NOP)功能与自动驾驶功能存在本质区别,(NOP)功能应当属于辅助驾驶功能。
根据官网介绍,蔚来NOP全称是领航辅助(NavigateonPilot),NOP是导航系统、高精地图与NIOPilot自动辅助驾驶系统的深度融合,在Pilot功能已实现的巡航车速控制、车距保持、转向辅助和转向灯控制变道功能的基础上,使车辆在高速景地图覆盖范围内的大部分高速公路及城市高架路段内,按照导航规划的路径实现自动汇入主路、在主路巡航行驶并智能选择最优车道、根据导航规划自动切换至下一条高速/高架、自动驶离主路等操作。
黄莉凌认为,如果该事故是使用(NOP)功能状态下发生的,其责任认定推定存在两种可能:
其一,驾驶员在(NOP)功能状态下,未进行或未及时进行人工干预,导致发生事故,根据道交法的规定,驾驶员驾驶车辆时,应当操作规范安全驾驶、则驾驶员承担相应责任。
其二,如果驾驶员是合法驾驶、规范操作,发现情况后及时采取操作,但没能成功接管车辆,没有退出NOP模式导致事故,这是属于车辆故障或设计缺陷,应当由厂商来承担法律责任。
究竟是林文钦没有及时接管车辆,还是没有成功接管车辆?目前这还是一个问号,但根据张波发布的信息显示,林文钦驾驶的蔚来ES8撞上了正在作业中的工程车。
从目前信息看,我们并不能确定工程车是处于停止状态还是低速行驶状态,但值得关注的一点是,对于蔚来、特斯拉等企业的自动驾驶方案来说,工程车等特殊车辆的确是个“盲区”。
蔚来在NOP用户手册里提到了该风险。官方表述,领航辅助Beta版本为公开测试版本,功能尚处于持续优化阶段。与Pilot和其他驾驶辅助功能一样,领航辅助无法响应静态障碍物(如路障、三角警示牌等),如前方存在事故或施工区域,请立即接管车辆以控制方向和速度等。
蔚来NIOPilot/NOP自动驾驶辅助系统使用的是毫米波雷达+摄像头的组合方案,硬件方面有1个三目前向摄像头、4个环视摄像头、5个毫米波雷达和12个超声波传感器。
自动驾驶领域专家张峰对腾讯汽车表示,从技术角度来看,此次事故是传感器对静止的非常规工程车辆的感知漏检导致的,视觉和毫米波雷达容易对这种车辆漏检,而对非规则障碍物激光雷达更有保障。
也就是说,在监测前方障碍物时,假设视觉没有发现前方车辆,毫米波雷达也大概率会发现前方车辆(有障碍物就会有回波),进而做出避让动作。如果前方是一个静止或者缓行车辆,且距离路边的栏杆较近时,雷达因为角分辨率较低因此难以区分前方障碍物究竟是栏杆还是一台车,所以很容易将该目标过滤掉。
“事故核心原因应该是NOP系统无法对前方缓行/静止车辆做出反应而发生,这也是现在技术水平下L2自动驾驶系统普遍面临的一个难题。”自媒体车东西认为,受传感器能力的限制,该方案对前方静止或缓行车辆的检测存在明显的困难。
本可以避免的悲剧?
在调查结果公布之前,谁都无法下定论谁要为该事故负责,但背后我们不得不去反思,这场事故是不是本该可以避免?
在技术完全成熟、城市基建具备相应条件时,自动驾驶技术才有可能被称之为是安全的技术,在此之前结果可能恰恰相反。那么在技术走向成熟的一段周期内,为了减少或者杜绝事故,蔚来以及更多的参与者能为用户做什么?作为使用者,用户又该如何正确使用一项前沿技术,从而保障自己的人身安全?
目前,不仅仅是蔚来有领航辅助功能,特斯拉、小鹏、理想等品牌的车型上都搭载了类似功能,抛开技术能力,4家企业在功能和使用说明方面各有各的做法。

蔚来在手机端APP里分别在车辆产品介绍和使用手册中说明了NOP功能和使用注意事项,腾讯汽车发现,8月16日,蔚来已经更新APP中车辆产品介绍NIOPilot页面,把领航辅助(NOP)指南放在了第一位。
对于用户来说,想要使用NOP功能是有前提条件的。蔚来无人驾驶系统工程部负责人章健勇在蔚来领航辅助(NOP)使用指南中再三强调,“大家绝对不能把NOP等同于自动驾驶。”他强调,与Pilot一样,NOP仍然是一种辅助驾驶功能,且随时可能在无法满足工作条件的情况下退出。
章健勇还表示,在使用时,车主必须时刻关注交通状况及道路环境。对于部分自动辅助驾驶功能使用经验不足的用户而言,请尽量在熟悉了Pilot功能之后,再尝试使用NOP。
另外,由于路况的多样性和复杂性,NOP将在很长一段时间内处于持续优化阶段。在使用NOP的过程中,如果车主发现交通状况、道路环境或车辆状况不适宜使用NOP,或者一些非预期的加减速、变道等情况,请立即接管车辆。
不过,不是每一位车主都会仔细阅读这一提示。
蔚来ES8车主于丹和ES6车主谢怡均对腾讯汽车表示,她们并没有仔细阅读过蔚来NOP功能使用手册上的提示。据两位车主描述,在蔚来官网上,也没有在显著位置对这部分内容进行说明,在车辆定制配置时,针对NIOPilot自动辅助系统-精选包和全配包,也只是包含了其所具备的功能的介绍。
“我们家都不信机器,只是辅助使用。”于丹表示,只有在路况良好的高速路段时使用NOP偶尔解放一下手脚,“即便脱手两秒,也肯定会先观察一下路况,NOP只是辅助。”
小鹏汽车把该功能介绍放在了APP相对显眼的位置,在使用层面,小鹏汽车给用户设置了一道“门槛”。腾讯汽车发现,小鹏汽车用户首次使用NGP(自动辅助驾驶)时,必须在小鹏App上观看功能介绍的视频(无法快进),并通过考试,否则无法开启NGP功能。考试入口在APP开屏首页居中靠右的位置。
小鹏P7用户赵卓表示,“考试的答案特别明显,跟驾考科目一差不多。”但他也表示,如果开NGP不集中精神会很危险,“现在都是手动开,不用NGP。”
而购买2021款理想ONE的用户,在提车环节会收到一份“辅助驾驶用前必读”,车主在激活车辆后,必须观看辅助驾驶功能的视频,才能开启辅助驾驶功能。
2020款理想ONE车主刘辰对腾讯汽车表示,“当时没仔细看过用车手册,就是买车的时候销售随便教了几下,老款车辅助驾驶功能不多,主要就是自动跟车和车道保持,我也就高速上偶尔用一下。”
在张峰看来,在辅助驾驶阶段,系统性能越好,上量后出事故的机会就越多。“因为人是懒的,系统好我就会相信,可它实际上是不完备的,出事故是必然的事情,总体事故就会越多。”
2020年10月,在章健勇写的NOP使用指南下,有蔚来用户表示,“限制太多,责任推得一干二净,应用受限”;也有用户呼吁安全第一、理性使用,希望“大家使用前仔细阅读说明和车机手册说明,有很多警告信息,任何辅助驾驶都是辅助,安全最重要。”而更多用户的期待是,蔚来赶紧更新迭代此功能,“期待每天NOP领航”。
汽车行业从业者张烨在看到这一事故后在朋友圈发出了一段感慨,他表示在无人驾驶普及前,用户必须对技术的相信与依赖之间寻求一个平衡。
“在体验辅助驾驶时反而比自己开车还要提心吊胆,既不能不信任,又不能太信任、太依赖,在现在的高速路况和驾驶习惯下,必须精神高度集中随时准备接管,感觉只有老司机才能从容应对。”
关于消费者教育方面,黄莉凌认为,在驾校培训及考试中,应强调、普及自动驾驶和辅助驾驶的法律规定和操作规范,提醒用户双手脱离方向盘使用自动驾驶或者领航辅助驾驶功能在我国是属于不合法行为。
乘联会秘书长崔东树表示,该事故警示业内自动驾驶不是一蹴而就,“要教育消费者,并采取更多措施防止过度依赖自动驾驶。目前最大的问题是消费者对自动驾驶出现风险的意识不足,在自动驾驶尚未完全成熟下,过度信赖自动驾驶是有风险的。”
低级别自动驾驶功能存在悖论
在张峰看来,目前自动驾驶功能和用户使用之间存在逻辑悖论,有自相矛盾的问题,“监管介入也没用”。
去年11月,美国公路安全保险协会(IIHS)和麻省理工学院的一项研究结果表明,当驾驶员对驾驶辅助系统产生信任时,他们会更频繁地使用电子产品,导致双手离开方向盘。
IIHS总裁DavidHarkey表示,用户在使用低级别自动驾驶功能的时候,你不应该忽视车辆正在被系统控制,但事实上,系统确实让驾驶人员忽略了这点。
IIHS呼吁,企业在开发这些新技术的同时时应监控驾驶员,以确保驾驶员在使用系统时意识到“正在被系统控制”这一点。
除了技术本身,在张峰看来,消除上述悖论的核心是要解决正确宣传辅助驾驶功能和车企自身利益之间的平衡问题。
毫无疑问,自动驾驶赛道是各家必争之地,为此业内一度出现了靠PPT隔空比拼算法、激光雷达的乱象,夸大技术宣传更是销售人员增加销量最常见的手段。
最早宣传“自动驾驶”的特斯拉,也已将说法变为“自动辅助驾驶”。特斯拉全球副总裁陶琳三个月前接受新华社采访时也表示,需要加强对消费者的教育。“我们需要去跟驾校、交通部门去合作,不断地在车端用一些技术方式,让大家了解新型汽车的使用方法,然后使得在使用环节当中去避免误操作,或者说一些因为功能上不太了解,而带来的其他的问题。”
但在特斯拉官网上,我们仍可以看到类似话术。特斯拉称其所有新款Tesla车辆均搭载完全自动驾驶所需的硬件,未来升级后的车辆将能在几乎所有情况下实现完全自动驾驶。系统的设计理念旨在使车辆能够自主完成短途与长途旅行,无需驾驶座位上的人类介入操作。
在小鹏汽车之前的官方宣传视频中,其称开启NGP(NavigationGuidedPilot)功能后,驾驶员可以在车上自拍;蔚来副总裁沈斐在社交平台发布的视频引发了媒体概论,他曾提到使用NIOPilot时可以“放心地边吃东西边开车。”
腾讯汽车注意到,在蔚来,小鹏和理想的辅助驾驶中文名称中均含有自动两字,对普通用户来说也会产生一定程度的误导。
汽车业独立撰稿人、汽车行业分析师钟师在接受红星新闻采访时表示,大部分车企目前只能做到L3等级,但推广时都愿拔高用自动驾驶字眼。
由于企业的不当描述,用户对技术本身的理解可能会产生误差。张峰认为,车企宣传是导致技术发展和用户认知之间不对等的一方面因素,而用户内心真实期待或自己的认知也是一方面的因素。
除此之外。部分业内人士已经开始呼吁应从专业话术开始统一,同时避免夸张宣传造成用户使用的误解。
8月16日,理想汽车创始人李想在朋友圈呼吁,行业统一自动驾驶的中文名词的标准,避免夸张的宣传造成用户使用误解,在推广上克制,在技术上投入,对用户、行业、企业都长期有利。
李想认为,“L2、L3一类的用语,用户听不懂,建议统一名称:L2=辅助驾驶;L3=自动辅助驾驶;L4=自动驾驶;L5=无人驾驶,一个多余的中文字也不要有。”
威马汽车创始人沈晖在社交平台上表示,L2级别辅助驾驶功能,驾驶员是功能操作主体,也是责任主体。L4以上级别自动驾驶功能,车内无人状态下,操作主体是车辆本身,责任主体当归属主机厂。
业界和学界也一直在探讨自动驾驶技术的界定和命名。今年4月,国际汽车工程师学会(SAE)更新了自动驾驶的等级定义SAEJ3016,作为行业新的通用准则。
新的准则下,将L0-L2级系统命名为“驾驶员辅助系统”,L3级至L5级则被视为“自动驾驶系统”;L3级和L4级自动驾驶系统可以在有限的条件下驾驶车辆,除非满足所有要求的条件,否则不会运行自动驾驶;L5级自动驾驶系统可以在所有条件下驾驶车辆。
去年3月,我国工信部发布的《汽车驾驶自动化分级》中,驾驶自动化等级分为0级-5级,3级才开始被称作有条件自动驾驶,3级以下则均被认为辅助驾驶。
事实上,自动驾驶技术行业目前仍然在用时间维度衡量技术的前沿与否,技术标准、规范和法律法规仍处在“婴儿期”。
原华为汽车智能汽车解决方案BUADS智能驾驶产品线总裁和首席架构师苏箐曾发表观点认为,“特斯拉这几年下来,它的事故率还是挺高的,而且是从杀第一个人到最近杀的人,它的事故类型非常像”。
8月16日,据媒体报道,美国国家公路交通安全管理局(NHTSA)本周一在其网站上宣布对特斯拉Autopilot功能展开正式调查。该机构表示,自2018年以来已经确认11起事故与该功能相关。这些事故中,开启Autopilot或交通感知巡航控制系统(TrafficAwareCruiseControl)的特斯拉电动车撞上了开启闪烁灯、在道路上放置了发光箭头板或警告危险的锥筒的车辆。
在苏箐看来,自动驾驶产业现在是黑洞状态,技术跃进不是连续的,而是一段线,一个技术在一个阶段达到黑洞,再会跳到下一段线。
“特斯拉出现之前,可以认为是L1,大家停在那个地方,然后一个大洞挡在前面很多年,特斯拉出来后L2打通了。但如果你看特斯拉过去几年历史会发现,虽然系统硬件水平涨了很多倍,但AP和FSD表现没有提升多少,这个是一个技术黑洞。”苏箐解释。
另一个不容忽视的现状是,智能车在不断涌入市场走进人们的生活,在技术有明显短板的当下,人们并不能确定自己可以多大程度的减少自动驾驶事故率。
今年第一季度,L2级(半自动驾驶)智能网联汽车的市场渗透率达到17.8%,新能源车中的L2级智能网联汽车市场渗透率达30.9%。工信部预计到2025年,我国L2、L3级(在特定环境中实现部分自动驾驶的操作)智能网联汽车销量占全部汽车销量的50%,L4级(完全自动驾驶)智能网联汽车开始进入市场。
渗透率的不断攀升意味着越来越多的用户选择了智能汽车,而这些智能车真的安全吗?新用户真的了解智能汽车吗?显然,答案并非百分百的肯定,但蔚来ES8事故正在为全行业敲响警钟。
对于此事你认为谁该承担责任?欢迎扫码进入腾讯新闻分享观点。

腾讯汽车
网上选车、买车找腾讯汽车
长按识别二维码关注我们