展会信息港展会大全

Uber自动驾驶车祸判决,技术要负责任吗?
来源:互联网   发布日期:2019-11-22 12:58:16   浏览:6375次  

导读:文 |张田勘美东时间11月19日下午1点半,美国国家运输安全委员会(NTSB)召开会议,正式公布2018年3月Uber自动驾驶车祸事件的原因。这是全球第一例,也是目前为止唯一一例自动驾驶车祸原因正式……...

文 |张田勘

美东时间11月19日下午1点半,美国国家运输安全委员会(NTSB)召开会议,正式公布2018年3月Uber自动驾驶车祸事件的原因。这是全球第一例,也是目前为止唯一一例自动驾驶车祸原因正式确认。

NTSB将车祸的主要原因归咎于Uber脆弱的安全文化,没有开启紧急制动系统,没有及时对安全员进行监督,事发时,安全员仍在看电视而非及时采取措施以扭转局面。此次车祸主要原因在人,而非技术。

Uber自动驾驶导致车祸(图片来源:视觉中国)

自动驾驶车祸,敲响Uber安全文化的警钟

这起车祸发生在亚利桑那州马里科帕县坦佩市,2018年3月18日晚10时许,Uber的一辆自动驾驶汽车撞上了49岁的妇女伊莱恩-赫茨伯格(Elaine Herzberg),并导致其死亡。该事故也是全球首例无人驾驶汽车致人死亡的事故。

事发后,谁来承担责任,以及承担多大的责任不只是对于交通安全有重要意义,而且对于人工智能(AI)的发展有着举足轻重的影响,表现为促进还是延迟AI在汽车驾驶以及其他交通工具上的使用。

车祸发生后,当地马里科帕县检察官波克表示,针对Uber的刑事责任“没有依据”,但警方应调查车上女性后备司机(安全员)拉斐尔瓦斯奎兹(Rafael Vasquez)的行为。

此后,2018年6月的一份调查报告显示,瓦斯奎兹可能面临驾驶车辆过失杀人的指控。因为在事故发生前,这辆装载有Uber自动驾驶系统的沃尔沃XC90以每小时43英里的速度行驶,但安全员瓦斯奎兹一直在用手机观看一个直播电视节目。在汽车撞上正在过马路的赫茨伯格半秒钟之前,赫茨伯格抬头看了一眼。但车上的瓦斯奎兹显然没有发现车前的赫茨伯格,因而露出惊恐表情。

现在,NTSB的判决应当说是专业和权威的,与当时检方的观点类似,也即人要负主要责任,技术不负责任。但是,细究其来,人与技术可能都有责任,但主要责任是在人。因为,如果人要负责的话,应具体落实到是哪个人,是Uber的法人代表,还是车上的安全员,或者说两者都有责,但责任有轻有重。

不过,在NTSB主席罗伯特萨姆沃特(Robert Sumwalt)看来,“自动驾驶系统的失控和安全员的不当行为指向一个更深层次问题Uber的无效安全文化。”既然是Uber公司的安全文化无效,当然是该公司,具体而言是公司的法人代表(董事长或CEO)要负主要责任。

所谓安全文化是指,在人类所有的活动中,既然一切是为了人的福祉,就应当以人的安全为第一标准,这已经是人类从农业文明以来一直坚持的一个准则,在工业文明时代更为明确和明显。人发明和使用机器为自己服务,但是,使用机器时,会产生比农业文明时代还要多得多的事故和伤亡,到今天的第四次工业革命时代,人的安全更受到发明和使用机器的威胁,如自动驾驶、工厂中的机器人,以及可能在战争中使用的AI机器人。

但是,Uber公司设计的自动驾驶软件和使用程序却无视以人的安全为第一的准则。NTSB的调查发现,Uber自动驾驶汽车是在识别到行人赫茨伯格后1秒才开始紧急制动(刹车),但此时距离碰撞只有0.2秒,事故已经无法避免。

按照专业界的标准,在碰撞前1.3秒,自动驾驶系统需要开启紧急制动来避免或缓解碰撞,并尽早提醒安全员进行干预并采取行动。但是,Uber认为紧急制动系统会造成车辆的不稳定,放弃了使用紧急制动系统。从这个设计来看,是把车辆的流畅运行放到了第一位,而把行人的安全放到了第二位。这当然是安全文化无效或缺失。

Uber公司忽视安全的严重性更在于,既停用了该辆沃尔沃汽车的自动紧急制动系统,同时Uber自己的系统也没有自动刹车的能力,仅仅依靠一名人类安全员来刹车。同时,Uber也没有及时监测安全员的工作状况。因为,Uber车内装有摄像头主要是监控司机,但没有监控到安全员的行为,以确保他们对车辆的行驶状况保持警惕。这等于多重安全防线的失守。

Uber公司的安全文化缺失,员工自然也不可能得到安全文化的有效培训,这体现在车上的安全员并没有注意车辆行驶的情况,而是放心大胆地在车上看视频,以为把一切交给智能机器就能高枕无忧。

图片来源:视觉中国

AI时代,机器比人更可靠?

这种情况不只是出现在Uber公司,可以说,在世界上研发、使用机器的所有工厂、公司和所有地方,都或多或少存在这种情况,把一切放心地交付给机器,认为机器和AI比人更可靠,既能预测事故,又能避免事故。然而,这是一种非常离谱的思维,尤其在进入AI时代,如果把一切交由AI来判断和执行,终将酿成大错。

这个问题,早在刘易斯芒福德的《技术与文明》一书中就提出了。人类发明和依靠机器,实际上也深深地改变甚至强制了人类自己。如果说,人类依靠机器和技术摆脱了自然的完全控制,却反过来掉入了机器和技术的控制之中,把一切都交由机器和技术来操作和控制。机器和技术取决于人对其利用的好坏,如果利用得好,是造福人类,如果利用不好,则会祸害社会。

过去只是认为,让技术,如武器不分青红皂白地杀人,是坏的利用。但殊不知,放心地把一切交由技术来控制其实也是技术坏的利用的一个方面。Uber和安全员把操控汽车的所有权都交与自动驾驶软件,并由此引发致人死亡的车祸就一个明证。

NTSB对Uber自动驾驶车祸调查结果同时也指出了一个问题,现在的自动驾驶技术,即AI软件并非此前所认为的那样,已趋于成熟和安全。Uber的自动驾驶汽车在发生车祸前5.6秒钟就检测到了行人,但将其错误识别为汽车,此后该自动驾驶系统又对物体的分类发生了混乱,认为不是汽车,而是其他物体,由此在汽车和其他物体的判断之间摇摆不定,浪费了生死攸关的果断采取行动的时间,车辆没能及时刹车。这实际上也表明,自动驾驶软件还不能识别在人行横道外过马路的行人,误把行人当成物体或其他汽车。

这种情况表明,即便自动驾驶技术能过关,也能完全识别路上的行人,我们同样要强调安全文化,把人的安全放在第一位,而且不能把一切全部交给AI来控制和执行。对此,NTSB主席萨姆沃特提出,今后要推出在公共道路上测试自动驾驶车辆的安全风险管理要求。至于此次事故的法律责任,也许还要由法院来判决。

张田勘(媒体人)

编辑:范娜娜 实习生:李碧莹 校对:陈荻雁

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港