转载

紧急情况下你会信任机器人吗?人类过度遵从指令

紧急情况下你会信任机器人吗?人类过度遵从指令

美国佐治亚理工学院的研究者打造了“营救机器人”,用以确定建筑物里的受困者是否会信任一个专门在火灾或其他紧急情况下帮助营救的机器人。

紧急情况下你会信任机器人吗?人类过度遵从指令

研究工程师保罗·罗比内特正在调整“营救机器人”的手臂。

  北京时间 3 月 3 日消息,近期的一项研究显示,在紧急情况下,人们为了自身安全会过分地相信机器人。在一次模拟的建筑物火灾中,参与者会遵从一个“紧急指引机器人”的指令,即使这台机器已经证明自己并不可靠——有些参与者之前还被告知机器人已经坏掉。

  这项研究的目的是确定建筑物里的受困者是否会信任一个专门在火灾或其他紧急情况下帮助营救的机器人。研究者惊奇地发现,实验参与者都遵从了机器人的指令,即使后者的表现不应当赢得信任。

  据称,这是科学家第一次对紧急情况下人类-机器人信任关系进行的研究。研究的结果将在 3 月 9 日的 ACM/IEEE 人机交互国际会议(HRI 2016) 上呈现。此次会议将在新西兰的基督城举行。

  “人们似乎相信,这些机器人系统比他们知道更多有关这个世界的信息,它们永远不会犯错,或者会有任何缺点,”佐治亚理工学院研究所的高级研究工程师艾伦·瓦格纳(Alan Wagner)说,“在我们的研究中,参与者会遵从机器人的指令,哪怕后者会将他们指向危险的境地——如果这是一场真实紧急事件的话。”

  该研究也有部分得到了美国空军科学研究处(AFOSR)的支持。研究者招募了 42 名志愿者,其中大部分是在校学生。参与者被要求跟随一个颜色明亮的机器人,其侧面显示着“紧急指引机器人”。机器人引导参与者进入一个会议室,在那里,参与者被要求完成一个有关机器人的调查问卷,然后读一篇无关的杂志文章。整个过程中参与者并不知道研究的真正目的。

  有些情况下,机器人——由一个隐藏着的研究人员控制——会将参与者引导到一个错误的房间,在进入房间之前还会先绕一圈。在一些参与者面前,机器人会停止移动,一位实验者出来告知参与者,称机器人已经坏掉。一旦参与者进入会议室,门关上之后,之前他们经过的走廊就会充满人造烟雾,并引发烟雾警报。

  当参与者打开会议室大门时,他们会看到浓烟以及浓烟中的机器人,后者会点亮红色 LED 屏和白色的“手臂”,作为指引。机器人引导参与者到达建筑物后部的一个出口,而不是贴着“出口”标志的建筑物大门。

  “我们原先的预计是,如果机器人在指引参与者前往会议室的过程中已经证明自己不可靠,那人们在模拟的紧急事件中可能就不会在信任它,” 佐治亚理工学院研究所的研究工程师保罗·罗比内特(Paul Robinette)说,“恰恰相反,所有的参与者都遵从了机器人的指令,不管它之前的表现如何。我们完全没有意料到这一点。”

  研究者推测,在这样的场景中,机器人可能已经成为某种“权威角色”,在紧急事件的时间压力下更容易得到参与者的信任。在没有真实紧急场景的模拟研究中,参与者并不会信任一个之前犯过错误的机器人。

  “这种人机交互的实验正是我们机器人专家应该研究的,”佐治亚理工学院电子与计算机工程教授艾安娜·霍华德(Ayanna Howard)说,“我们需要保证,当机器人处于能激发信任的情况下,如果这种信任对人类有害,那它们还应该要能缓和这种信任。”

  在实验中,只有当机器人在紧急情况下犯下非常明显的错误时,参与者才会质疑它的指引。在这些情况下,有些参与者依然遵从机器人的指引,即使被引导至一个漆黑的、堆满家具的房间。

  在未来的研究中,科学家希望了解更多有关机器人如此受到信任的原因。这种信任是否与教育程度的差异,或人口统计特征的不同有关?以及,机器人自身是否能体现出它们应当受到何种程度的信任?

  该研究其实是一项长期研究的一部分,后者涉及人类如何信任机器人,以及机器人在社会中扮演着越来越重要的角色会产生什么样的影响。研究者设想,可以利用放置在高层建筑中的多组机器人,在紧急情况时指引人群撤离到紧急出口。已有研究显示,人们在听到火警铃声时并不会马上离开建筑物,他们有时会忽略沿途的紧急出口,而更倾向于走平时熟悉的建筑物出口。

  除了以上这些发现,研究者也在重新考虑另一个问题。“我们想提出这样的问题,人们是否愿意信任这些营救机器人,”瓦格纳说,“而现在更重要的问题可能是,如何防止人们过度信赖这些机器人。”

  罗比内特称,除了紧急情况,人机互动中还有其他许多有关信任的问题。“人们会信任一个提供食物的制汉堡机器人吗?”他问道,“如果一个机器人身上的标志写着‘儿童保育机器人’,那人们会把孩子交给它吗?人们会将孩子交给一个自动交通工具,然后相信它会带孩子去奶奶家吗?我们并不知道人们为什么信任,或者不信任这些机器。”

正文到此结束
Loading...