转载

学会信任自动驾驶汽车

学会信任自动驾驶汽车

编者按:尽管Tesla的Autopilot模式在开了1亿多英里后才出现一单死亡事故,但是仍然引起了大众对自动汽车这项技术的不安全感。不过有迹象表明,事故发生时事主并未在留意路况也许是原因之一。今后的汽车工程师将面临着一个悖论:如何设计出这样一种自动汽车:它既让人感觉安全,又时刻提醒我们任何司机—无论是人还是人工智能,都不是完美的。

5月的一个清晨,大众电子研究实验室的高级工程师Brian Lathrop正坐在一辆Tesla Model S的司机座位上,在弗吉尼亚州Blacksburg附近的一条公路上行驶的那辆车开始变道。不过虽然Lathrop的手放在方向盘上,但是他并没有控制汽车。Tesla正处在Autopilot模式,这是定速巡航的高进演进版,在一系列传感器的帮助下可以自动进行变道、转弯以及与车流保持一致。这辆车是弗吉尼亚理工学院交通研究所的,Lathrop当天正好在参观,突然车子失去了路标的踪迹,Lathrop赶紧打回方向盘来解除自动驾驶。“要是我没有意识到发生了什么事情的话,后果可能就完全不一样了,” Lathrop最近告诉我。

同一周,在Blacksburg以外600英里之外的佛罗里达,一位叫做Joshua Brown的40岁老司机就遭遇了那个不同的结果。他的Model S在27号州际公路以Autopilot模式疾驰撞上了一辆18轮的拖挂车的侧向,Tesla的车顶和挡风玻璃都被削掉了。Brown也不治身亡。这起撞车事故是一项正在进行中的调查的主题—本周二,负责事故调查的美国国家公路交通安全管理局公布了本月早些时候向Tesla提出的一系列问题—但是Tesla很快做出了解释。6月30号,也就是事故首次公布的那一天,Tesla在一篇博客中指出“在强烈的日光照射下,Autopilot和驾驶员都未能注意到拖挂车的白色车身,因此未能及时启动刹车系统。由于拖挂车正在横穿公路,且车身较高,这一特殊情况导致Model S从挂车底部通过时,其前挡风玻璃与挂车底部发生撞击。”该公司随后还进一步指出了“这一影响的极端情况。”

记者、工程师、科幻小说作者、伦理学家、汽车制造商,当然还有律师一直都期盼着这一时刻。今年3月中旬,杜克大学人类和自主实验室(Humans and Autonomy Laboratory)主任Mary Cummings在给参议院商业、科学及交通委员会作证时呼吁要“显著加快自动驾驶的测试计划”以避免半自动驾驶的首例死亡案例的出现。让他不幸言中了,现在说服客户这些车辆可信赖的挑战将变得更加突出。

如Tesla在博客中指出那样,Brown的死是迄今为止Autopilot模式下超过1.3亿英里行驶里程的唯一的一起死亡案例。同时据该公司所述,Google的类似车辆在超过150万英里的行驶当中仅出现一次轻微碰撞,由雷克萨斯SUV改造的无人车跟一辆公共汽车发生了轻微的剐蹭。Uber,这家最终可能推出无人驾驶的士来让出租车司机失业的公司,也有一辆测试车在匹兹堡的道路上跑,希望将来的“交通能像自来水一样可靠。”的确,到目前为止,无人车的安全记录堪称典范。与2015年非盈利全国安全委员会的一份报告相比,Tesla的数据相对于人类略有改善—那份报告指出,每100按英里行驶里程就有1.3人死亡,也就是说美国每年将近3.3万人死于交通事故。但是这种比较是有瑕疵的。Autopilot本来是用在高速公路上面的,在这种路况下人类司机的事故率也低很多。哪怕在数据上自动驾驶汽车要更为安全,汽车设计师也要想出数字以外让大家更安心一点的办法。据AAA最近的一项调查,每4位美国司机当中只有一位对自动驾驶车辆表示信任。

Chris Rockwell是专注于用户体验的研究咨询机构Lextant的CEO ,他告诉我说“推广自动驾驶的真正阻碍在于心理。同样是出问题,大家往往可以更快地原谅人而不是技术。” Lathrop目前正在大众解决这个问题,该公司的Traffic Jam Pilot预计将会在下一款奥迪D级车配置。该系统可控制汽车,并且在摄像头发现司机睡着时发出警告,哪怕是在Autopilot模式下。“自动驾驶汽车想要给人以安全感有三个关键,” Lathrop说:“首先必须清楚车辆处在自动驾驶模式。其次坐车的必须知道汽车正在感知环境—即其他汽车和行人等。最后,车辆在做出机动前必须让人做好准备。没有什东西比生硬的变道或者转弯更令人不安的了。”据2014年发表在《实验社会心理学杂志》的一篇论文,汽车拟人化的告警越多—如名字、声音、性别等,人就越信任汽车能够想人一样胜任自己的角色。Model S有是否处于Autopilot模式的视觉提示,但是一些用户抱怨缺乏声音提示。

信任的面临的问题既有内部的也有外部的。行人和其他司机如何才能分辨一辆车是否处于自动驾驶模式呢?最近YouTube上面流传过一段视频,在一家汽车代理商的门前一群穿西装的人正在测试一辆沃尔沃,这辆车被认为是配备有传感器,可以避免撞上行人的。所以汽车引擎发动的时候,一位碰撞测试的志愿者还对着镜头微笑。结果那辆不靠谱的汽车径直开了过去把那位可怜的勇敢者撞倒了。(沃尔沃随后宣称视频里面的那辆车并没有配置相应的传感器)。这段视频的浏览量超过了500万。也就是视频上传的同一天,Google被授予了一项避免无人车撞人造成伤害的专利,就是给无人车的引擎盖、前保险杠以及侧板覆盖上一层粘合层,在平时这层东西会被一层类似蛋壳的东西覆盖住,当无人车冲撞到行人时,“蛋壳”会马上破碎然后暴露出这层粘力强劲的粘合层,后者就会像捕蝇纸或者双面胶一样近乎实时地把人粘到上面,从而避免二次伤害。而大众引导行人增加对车辆信任的的解决方案则要平凡许多。该公司最近已经在奥迪A7无人车测试过这种办法,这辆车在前挡玻璃配置了一盏LED灯。行人在过斑马线时可以留意那盏灯,如果它闪烁的话就说明汽车能看到自己—这种做法就相当于友好地挥挥手。

尽管第一次坐在自动驾驶车辆的方向盘后面(或者站在它前面)也许会感觉危险,但大众的研究表明,人和车之间的信任可以很快建立起来,很多情况下甚至是彻底建立起来。据Lathrop说,10年前该公司进行过一系列的内部研究,研究当中他们让一个人坐在一辆被告知是全自动汽车的驾驶座上。在他们后面有一道帘子,帘子后面还坐着一位司机,汽车实际上是由这位司机通过前置摄像头来控制的(前面的人并不知情),就像玩游戏一样。“我们发现人很快就对此情况适应了—甚至适应得太快,很快就让车自己开了,” Lathrop说。由于不需要自己驾驶,大部分人都出现了研究人员所谓的被动疲劳,进入意识迟钝状态。大概10分钟左右就可以进入这种状态。因为不活动导致的疲劳,坐车的人往往就会想找些可以消遣的事情。Brown 撞上的那辆卡车的62岁司机Frank Baressi称,他接近被撞扁的Tesla时听到了车内播放《哈利波特》的声音。调查者也在里面找到了一部便携式DVD播放器以及一台笔记本电脑。

Tesla一直在不遗余力地告诫消费者自己的车处于自动模式时还是得注意路况,但是这种警告力度可能还是不够。本周四,消费者报告负责消费者政策和动员的副总裁Laura MacCleery说,Tesla Autopilot这项功能的名字“给了消费者不当的安全感”。Lathrop正在跟他的同事在弗吉尼亚理工学院一起协作,在司机开车时利用司机的手机或平板来传递告警信息以便让他们更难以忽视。但是Lathrop说无论Brown在发生碰撞时是否分心,随着自动驾驶系统的日臻完善以及对车辆的信任不断加强,坐车者干其他事情的诱惑将会变得越来越强烈。“我们并不幼稚,”他说:“但是最终具备一定程度的路况感知这个责任必须由车辆的操作者承担。至于自动驾驶这种情况,自动驾驶是套系统。是机器。它不是在做决策。它并不能意识到所以的东西。它只是根据平时的训练来感知环境和做出响应。”这是工程师面临的一个悖论:如如何设计出这样一种自动汽车:它既让人感觉安全,又时刻提醒我们任何司机—无论是人还是人工智能,都不是完美的。换句话说,如何才能既让司机摆脱驾驶的负担,同时又要给他们这种心理负担,即在任何时候他们都需要接管控制。

 

原文  http://36kr.com/p/5049640.html
正文到此结束
Loading...