作者:马宏 中国道路运输协会专家库专家
前不久在百度AI开发者大会上,百度公司董事长兼CEO李彦宏乘坐百度无人驾驶汽车上北京五环的视频引发了热议,北京交通管理部门称将对此事进行调查。7月11日,李彦宏现身山西大学做了一场人工智能专题报告,对此首度做出回应:“未来无人车一定比人类司机更安全。”
自阿尔法狗先后战胜李世石、击败何洁,人工智能机器人比人类更聪明的认知,就得到了普遍的认同。由此,李彦宏所回应的“无人车比人类司机更安全”,也几近成了一句众所周知的论断,甚至在实际生活中也已无新奇,2016年1月,比阿尔法狗战胜李世石还早两个多月的时候,人工智能机器人教练就已经应用到驾培行业,因比人类教练更标准、更安全、效率更高,曾被央视新闻联播所关注,在当时测试时,安装人工智能机器人教练的车辆前摆放一瓶矿泉水,自动行驶的车辆就会自己制动,停了下来。
生活领域的实际测试,在理论层面也早已有数据进行了证明。全世界每天平均有3500人死于车祸,其中90%的车祸是由人为失误引起的。换句话说,基于人工智能算法而出现的无人驾驶汽车,只要给其预先设定好规则,它就不会违背规则,不会疲劳、不会有路怒症等情绪,不会醉驾毒驾。因此不论是主动还是被动,违背规则的概率将被大幅降低,这意味着,交通规则将被严格的遵守,人类也将迎来前所未有的交通安全环境,甚至可以说,无人驾驶汽车将让驾驶员,从感性的人类时代,进入到理性的数据时代。

一个全新的交通文明似乎正在迎面走来。这对人类而言,绝对是巨大的福音,会让资源得到更为有效的利用,挽救无数人的生命,减少交通堵塞和空气污染。然而,正如古希腊哲学家芝诺的二分法悖论,每一步都会让我们距离目的地更近,但我们却永远到不了目的地。无论在技术上怎样突破障碍,但无人驾驶汽车最大的挑战仍然是人的问题。
人类与生俱来就不愿意将控制权交给别人、机器人,尤其是出于对网络攻击担忧的。更大的挑战在于,虽然机器人被认为遵守着远比人类更高的安全标准,但他们发生车祸仍然是不可避免的事情,由此法律、伦理道德将会遭逢颠覆式探讨。
去年,美国特斯拉汽车公司生产的一辆S型电动轿车在无人驾驶模式下发生撞车事故,导致司机身亡。这就引发了事故责任由谁来承担的法律问题,而这是基于自然人驾驶的交通法规所难以界定的。这是一个全新的法律问题。在无人驾驶汽车规则设定的过程,是代码即规则的逻辑,那么现实中“代码即法律”是否适用?法律的监管,将遵循法律责任疏解原则还是法律责任锁定原则?一旦发生了交通事故,程序员、厂商、以及使用者,究竟责任如何划分?
如果一辆无人驾驶汽车需要做这样的瞬间计算,它会导致一个人或者另一个人受害,那么该给它输入怎样的伦理代码呢?在怎样的情况下可以允许无人驾驶汽车违反法规?有些时候正常的驾驶员会做出各种违法的事情,来让我们更加安全。比如你正要并入高速公路,就要提升到跟高速路上车流一致的速度