转载

机器人三定律被打破,不服从人类命令的机器人已经出现了

  一般来说,人类制造机器人是为了让自己的生活更加方面,但如果我告诉你著名的机器人三定律中的第二条正在遭遇挑战,一种在特殊情况下可以不必服从人类命令的机器人已经被制造出来了,你会怎么想?

第一法则:机器人不得伤害人类,或坐视人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己。

  上面这个是著名科幻小说家艾萨克·阿西莫夫在小说《我,机器人》的引言中定下的机器人世界法则。

  现在 Tufts 大学人机交互实验室的研究者们却开始挑战第二法则了,他们研制的机器人可以在特殊情况下拒绝人类发出的指令。

  IEEE Spectrum 指出,机器人的 Felicity Conditions 处理流程应该是这样子的:

1)知识层面:我知道怎么去做吗?

2)能力层面:我现在有能力做吗?机体通常是否足以应对?

3)目标优先级和时间:是否现在就可以去做?

4)社会角色与义务:是否有义务去这么做?

5)规范许可:做这件事是否有违任何规范与原则?

1 - Simple Natural Language Interaction with Consequence Reasoning

2 - Natural Language Interaction

  上面提到的第 4 点,是让机器人客观地确定施令者是否有权限;而第 5 点则听起来更加科幻一些,即机器人不能做一些人为危险或不对的事情(比如对人对事有害)。

3 - Natural Language Interaction

  在当前阶段的应用中,机器人直接听从指令是比较简单的。但是在未来的谷歌无人驾驶汽车等机器上,它们将不得不根据不断变化的环境,而作出快速的计算和即时决策。

机器人三定律被打破,不服从人类命令的机器人已经出现了

  在上面这个案例中,人类向这个机器人发出命令让它向前走,不过机器人却两次拒绝了人类的要求,因为它自己觉得前面已经没路了,这样对自己不安全。

机器人三定律被打破,不服从人类命令的机器人已经出现了

  上图演示的是另外一个案例,机器人前行的路上被布置了障碍物,当人类要求机器人继续向前走时,同样遭到了机器人的拒绝。

  所以,机器人必须服从人类命令这一法则已然遭受了挑战。对于 Tufts 大学的这些研究们来说,他们想做的当然不是让机器人去挑战人类,由于人类往往会给机器下一些非常荒谬的命令,所以整体上来说研究者们希望人能与机器更好的交互。在上面的这两个案例中,机器人都给出了拒绝人类的理由,人类其实也可以根据机器人给出的理由来修正自己的命令,进而继续让机器做自己想让它做的事。

机器人三定律被打破,不服从人类命令的机器人已经出现了

  比如,在人类修正命令后,机器人还是按照人类的要求继续向前走了。

  我看完之后想的是,当这么聪明的机器人被赋予深度学习能力后,真的会走上反抗人类的道路吗?

正文到此结束
Loading...