转载

如果机器人赢得了围棋之战,人类该恐惧吗?

如果机器人赢得了围棋之战,人类该恐惧吗?

  “人机世纪大战”进入倒计时,3 月 9 日谷歌人工智能系统 AlphaGo 将挑战世界围棋冠军李世石,如果 AlphaGo 胜出,人类是否该恐惧?

  随着人工智能的兴起,一些人提出了这样的警告:我们可能正处在创造一种新的生命形式的边缘,它不仅标志着进化上的突破,也会对人类物种的生存构成潜在威胁。真的是这样吗?

  机器人幼儿园

  “欢迎来到机器人幼儿园,” 38 岁的彼得·阿比尔(Pieter Abbeel)在加州大学伯克利分校机器人学实验室门口说。阿比尔 2000 年获得了斯坦福大学的计算机科学博士学位,在“如何教会机器人聪明地思考”领域,他是一名世界级的专家。

  但是在教会它们聪明地思考之前,阿比尔首先必须教会它们思考。“这就是为什么我们说这是幼儿园的原因,”他开玩笑说。布雷特(Brett)是一个六英尺高的人形机器人,是这个幼儿园众多“学生”中的一个。它由硅谷厂商柳树车库(Willow Garage)制造,几年前被该实验室买下用来做实验。阿比尔和学生教布雷特玩玩具:木锤、塑料玩具飞机、一些巨型乐高积木。

  可编程工业机器人出现已经很久了,你可以在工厂里看到那种将模块插入 PC 板的机器人,它们重复同样的动作,每小时 300 次。那种机器人并不智能。

  但近年来,机器学习(模仿人类大脑、让机器自己学习东西的算法)取得了很多突破,计算机识别语音和视觉模式的能力因而突飞猛进。

  阿比尔的目标是给机器人灌输一种通用智能——认识世界,以便它们能够自己学会完成任务的方式。他还有很长的路要走。 “机器人的学习能力还不如一个两岁的小孩,”他说。布雷特学会了完成一些简单任务,比如叠衣服。

  对于人类来说很简单的事情,比如明白桌子上一团皱巴巴的东西实际上是一条毛巾,这对于机器人来说却相当困难。部分原因是机器人没有常识,没有之前尝试叠毛巾的记忆,以及最重要的是,它们对毛巾是什么东西完全没有概念。它们看到的只是一块颜色。

  小孩子在解决问题时,往往会持续不断地调整自己的做法。阿比尔从中受到启发,开创了一种让机器人自学的方法。现在,当布雷特整理衣物时,它会用手抓起卷成团的毛巾,试图弄明白它的形状,搞清如何折叠它。这听起来很幼稚,但机器人学习叠毛巾就是这么不容易。

  这将把我们带向何方?

  智能机器可以执行的任务的复杂性正在呈指数级增长。最终这将把我们带向何方?如果机器人能够自己学会叠毛巾,有朝一日它也会学会给你做饭,给你做手术,甚至打仗吗?

  人工智能可能有助于解决我们面临的一些复杂问题,比如治疗癌症和应对气候变化——但在短期内,它也有可能用来开展监视活动、破坏隐私,进行电子推销。除此之外,更大的问题也隐隐呈现出来:机器有朝一日会拥有独立思考、对问题进行推理,以及展示情绪的能力吗?没人知道这些问题的答案。

  智能机器的兴起不同于其他任何技术革命,因为它最终和“人性”这个概念利益攸关。我们有可能正处在创造一种新的生命形式的边缘,它不仅标志着进化上的突破,也会对人类物种的生存构成潜在威胁。

  但这场革命已经开始。去年夏天,伯克利团队给一个仿真机器人安装了一个短期记忆系统。参与该项目工作的计算机科学家谢尔盖·莱文(Sergey Levine)说,在机器人身上测试这个记忆程序时,他们注意到“一件怪事”,他们向它发出一个命令,让它把一个木钉放在的两个孔洞中的一个里面,或者放左边,或者放右边。

  为了做比较,他们在没有记忆程序的时候重做了实验 ,结果令他们吃惊:机器人仍然能够把木钉放在正确的孔洞中。没有了记忆程序,它是怎么记得该放哪里的? “最终我们发现,一旦机器人接收到命令,它就把胳膊朝着正确的孔洞伸过去,”莱文说。然后,在命令消失后,它可以根据自己身体的姿势,知道该放哪个孔洞。实际上,机器人是自己想出了一个方法来正确地执行这个命令。 “这真是非常令人惊讶,”莱文说。 “而有点令人心惊肉跳。”

  算法:现代生活的燃料

  阿比尔谈到了 DeepMind 最近取得的突破。DeepMind 是谷歌在 2014 年斥资 4 亿美元购买的一家人工智能初创公司。几年前, DeepMind 教一台计算机玩《太空侵略者》这样的雅达利电子游戏,使其技能远远超过了人类玩家。但令人惊异的是,DeepMind 的方法并不是通过给计算机编程来让它了解游戏规则。这和“深蓝”(Deep Blue)在国际象棋比赛中击败人类不一样,深蓝的程序中编入了游戏规则。

  那台计算机只知道一件事情,就是它的目标是得高分。使用一种称为强化学习(reinforcement learning,就好比是狗狗做了一件正确的事情后,你要说“乖狗狗”)的方法,计算机对游戏进行各种尝试,自己来学习规则。在几个小时内,它玩游戏的技就超越了人类水平。这是人工智能领域的重大突破——计算机第一次“自学”了一项复杂的技能。

  出于好奇,阿比尔这个实验室的研究人员决定也做一个类似的强化学习实验——他们写了一个学习算法来帮助机器人学会游泳、跳跃和走动。那么玩电子游戏又怎么样呢?令他们吃惊的是,这个被称为 Trust Region Policy Optimization(简写 TRPO)算法获得的效果几乎不亚于 DeepMind 的算法。换句话说,TRPO 展示了一种广义的学习能力。 “我们发现 TRPO 可以在玩电子游戏时打败人类”阿比尔说。“而不仅仅是教机器人走路。”

  在书籍和电影里,人工智能常常被描绘成漂浮在一罐蓝色液体中的合成大脑。但实际上,人工智能是一种算法,它告诉计算机执行哪些功能(可以把它看成是机器的烹饪食谱)。算法之于 21 世纪,就如同煤之于 19 世纪:它是经济的发动机,是现代生活的燃料。

  没有算法,你的手机就运行不起来,我们也不会有 Facebook、谷歌、亚马逊。 “如果所有的算法都突然停止工作,我们所知道的世界就结束了,”一个机器学习博客写道。在人工智能的世界里,找到一个让机器理解世界的算法,就如同在物理界,找到了让物理学家解释宇宙运行的标准模型(Standard Model)。

  让计算机自己写算法

  数学算法已经存在了几千年之久,它们是现代计算的基础。数据输入后,计算机开始工作,让算法得出结果。但新的突破是,科学家们已经开发出了算法,来扭转这一过程,让计算机来写它们自己的算法。

  假设你想让直升机头朝下、脚朝上地飞行:你写一个算法,把直升机控制信息(输入数据)告诉计算机,接着再告诉它,你想让直升机怎么飞,以何种角度(输出)飞,然后,计算机自己就会写出算法来,告诉直升机如何做到这一点。这个过程被称为机器学习,即人工智能的基本核心:如果一台机器可以教会自己如何让一架直升飞机翻转过来飞行,它可能也可以教自己其他一些东西,比如如何在 Tinder 上找一个约会对象,当你对 iPhone 说话的时候识别出你的声音,或者设计出一个终结者生成器。DeepMind 的创始人之一杰米斯·哈斯比斯(Demis Hassabis)曾说过,“人工智能是让机器变聪明的科学”。

  我们的周围已经有很多智能机器,当你使用谷歌地图的时候,算法绘制出最快的路线,而且基于实时数据和车流量预测分析来计算交通延误。当你和谷歌语音交谈的时候,它识别你语音的能力,来自于一种名叫神经网络的机器学习算法,它可以让计算机可以把你的话转换成声音位,然后把这些声音和其他的声音做比较,弄懂你在问什么问题? Facebook 使用图像识别程序则不断扫描数十亿张照片,避免斩首视频和色情图片被上传到它的网站。

  智能机器的加速发展将把我们带向何方呢?地球上的生命从一堆泥巴开始,花了 30 亿年时间,出现并拥有了更高的智能。而计算机只用了大约 60 年,就从一堆硅成为了可以驾驶汽车穿州过省,或者在一群人中识别出一张脸的智能之物。

  发展人工智能是在“召唤恶魔”?

  人工智能领域一再出现新的突破:今年 1 月,DeepMind 表示它已经开发了一种算法,击败了欧洲冠军围棋。围棋比象棋更加复杂,而这种名为 AlphaGo 的算法将在 3 月中旬挑战世界围棋冠军。当然,人类在这种快速发展中起到了作用,但是人们不免也会觉得,我们似乎已经在智能机器的进化中达到了某个拐点。难道我们正要目睹一个新物种的诞生吗?还需要多长的时间,机器就会变得比我们更加聪明?

  在近期的一次会议上,特斯拉及 SpaceX 公司创始人伊隆·马斯克(Elon Musk)突发惊人之语,说发展人工智能是在“召唤恶魔”。不过他后来承认,这么说有点言过其实。他说,“智能机器的突飞猛进提出了一些严肃的问题,我们需要考虑自己作为人类的身份,需要考虑我们正在为自己打造什么样的未来。”正如他所指出的,我们对机器的依赖已经是个不争的事实:“我们已经成为了那种靠机电装置维持生命的人了,你试试把手机关上一段时间——你就会明白幻肢综合症是什么意思。”

  这并不是说,超级智能机器只有在变得超级邪恶之后,才会对我们人类构成威胁。 “人工智能真正的风险不是恶意,而是竞争力,”物理学家霍金最近提出。 “超级智能机器将非常善于实现自己的目标,如果这些目标与我们的目标不一致,我们就麻烦了。你踩死蚂蚁,可能并不是因为你是一个邪恶的蚂蚁仇恨者,但如果你负责一个水电绿色能源项目,有一个蚁丘被水淹没,那蚂蚁就是纯属倒霉。我们不能让人类陷入蚂蚁的这种处境。”

  现在的人工智能有多聪明?

  尽管现在我们有了更聪明的算法,更强大的机器人,超级智能机器却仍然更像是科幻而非科学的产物。Facebook 人工智能研究主管扬·乐康(Yann LeCun)说,“人工智能现在的聪明程度和老鼠差不多。”他说得没错。IBM 花了多年时间编程,投入了数以百万计的美元,在 2011 年推出了“沃森”(Watson)程序。沃森在《危险边缘》智力游戏节目中,击败了最出色的人类选手,现在它是 IBM 公司“认知计算”项目的基础。

  它可以每秒读取 8 亿个页面,可以消化维基百科的全部语料,更不用说积累了几十年的法律和医学期刊了。但是它不能教你如何骑自行车,因为它的智能频谱很狭窄——它不知道这个世界实际上是如何运转的。Aristo 是最先进的人工智能程序之一,但它无法理解这样一句话:“人呼吸空气。”因为要理解这一点,你需要一般性的知识——它却没有这样的知识。即使它知道这句话中每个词的定义,它也不知道人们呼吸空气是为了生存;不知道人是每分钟呼吸一次空气,还是一辈子只呼吸一次。还一些令人印象深刻的服务,比如 Skype 翻译(目前只有预览版),用户可用两种不同的语言进行实时对话,但它也有很长的路要走。如果你与意大利的一个人聊天,你对天气的谈论,可能会被翻译成对《圣经》的评论。

  这并不是说智能机器的兴起就没有风险。自主武器系统,比如武装无人机,可以利用面部识别技术和其他数据来开展暗杀活动,这样的危险确实是存在的。

  但它们并不对整个人类的生存构成威胁。有些人会想象,朝鲜黑客会突然开发出新的算法,让金正恩拥有了世界终结者那样的攻击力,这其实不太可能。因为人工智能和 iPhone 不一样,不是你写一个新应用就能大功告成的事情。它更像构建互联网本身——只能通过时间来完成,它需要大量的增量发展。

  夸张的想象掩盖了真正的风险

  事实上,夸张的想象反而掩盖了智能机器兴起带来的真正风险——导致工人失业,在战争中更多使用自主武器,以及这样一个事实:我们越是依赖机器,出问题的时候(无论是技术故障还是黑客攻击),我们的风险就会越大。

  这是一个关于“异化”(alienation)的问题。如果在一个世界中,我们和机器说话的时候多过和人说话,而艺术不过是一种谐调悦目的算法输出,异化就会出现。此外,人工智能时代也会带来严重的隐私挑战,这不仅仅是说有智能无人机从上空监视你,而且也是说一些公司会跟踪你的一举一动,目的就是为了向你销售东西。

  夸张的想象也掩盖了我们与机器更深入地合作可能带来的好处。大多数研究者,比如 DeepMind 的杰米斯·哈斯比斯,他们认为,如果我们给机器提供资料,它们就可以帮我们解决诸如疾病和医疗这样的重要问题,可以帮助科学家应对气候变化等等。

  技术革命往往会激发恐惧感——有时候合情合理,有时则不然。工业革命初期,英国纺织工人砸坏了机器,因为担心自己的饭碗会被机器抢走(确实如此)。电力时代开始的时候,人们觉得电线可能会引起精神错乱(其实没有)。而在 20 世纪 50 年代,家电厂商还认为很快就会出现核动力吸尘器。

  人工智能成为了公司争夺的热点

  在过去,开发一个可以思考的机器在很大程度上是哲学家和学术界计算机科学家们的尝试。 但是,“现在已经不同于以往,”Facebook 的乐康说。“Facebook、IBM、微软——每家公司都在部署人工智能,都在里面投入了资金。”如今,拥有最好的学习算法和数据的公司会成为赢家。你以为谷歌为什么是一个成功的广告平台?

  更好的算法可以预测你会点击哪些广告。对于一家营收 500 亿美元的公司来说,即使是 0.5% 的点击率差异,也意味着巨额资金。图像识别(它的基础是机器学习)目前是苹果、微软、谷歌和 Dropbox 等云服务的一个竞争热点。另一个热点是语音识别的改进。如果某家公司能够推出一种机器人,用户可以很自然地和它交谈,就像和人类交谈一样自然,这家公司就会拥有巨大优势。

  谷歌和苹果都收购了一些在人工智能方面很有前景的初创公司。人工智能对无人驾驶汽车的成功至关重要,这将给汽车行业带来巨大影响,还有可能改变城市的面貌,想想看,如果我们不再需要空间来停放私家车,城市将会是怎样?

  实际上,人类已经在和机器一起合作,你很难想象未来会有什么不同——不管机器人以后变得多么复杂。 著名的计算机科学家贾瑞恩·拉尼尔(Jaron Lanier)曾说过:“算法是人类设计的,它们反映了设计者的偏见。”无论是好是坏,无论我们会创造什么样的未来,它都是我们为自己设计和建造出来的。

正文到此结束
Loading...