转载

与人脑匹敌的计算机应该是什么样的?

与人脑匹敌的计算机应该是什么样的?

编者按:人工智能最近取得的成功大部分要归功于仿生学。但是这种仿生仍受制于几十年前的冯·诺依曼体系,而这种体系制造出来的机器,其计算能效与人类大脑相比不可同日而语。为了取得更大突破,也许我们需要新的计算范式。瑞士巴塞尔的神经学家Kelly Clancy从仿生的角度回顾了计算与AI的历史,并展望了未来AI可能的 走势 。

200多年前,一位叫做Joseph Jacquard的法国织布工匠发明了一种机械装置,这种装置可以极大地简化纺织生产。他设计了一系列的穿孔纸带卡片,上面的孔指定了每一针脚的位置。这种穿孔卡片取代了低级的draw boy,也就是一丝不苟地选择哪一根纺线送给织布机,以织出特定纹理的年轻学徒。设备大获成功,以至于思路被借用到了人机的第一代接口上。在20世纪的大部分时间里,程序员就像织工一样,利用一个个的穿孔来编排自己的代码。卡片本身比较挑剔易碎,缥缈的信息完全要听命于承载它的纸板,用一种只有专家才能理解的语言来进行编码。但后续的计算机界面变得更加自然、更加灵活了。不变的程序指令被软化成为“如果 x 则 y,当 a 时,做 b。”现在,在Jacquard的发明出来很久后,我们只需对着Amazon Echo说给我冲杯咖啡,或者叫苹果的Siri找最近的洗车地点就行了。我们已经学会了让它们跟着我们做了。

在人工智能的早期历史里,研究人员遇到了所谓的 莫拉维克悖论 :和传统假设不同,人类所独有的高阶智慧能力只需要非常少的计算能力,例如推理,但是无意识的技能和直觉(比如在嘈杂的酒吧中分辨出朋友的声音)对于人工智能来说却是最难掌握的东西。设计出一个能在基于规则的游戏(比如国际象棋)中击败人类的计算机并不是什么极大挑战;逻辑机器处理逻辑也处理得非常好。但工程师尚未能开发出会玩跳房子游戏的机器人。奥地利机器人学家汉斯·莫拉维克提出,这可能与进化有关。由于更高水平的推理只是最近(大概是在近几十万年前)才演变形成的——所以在人类身上还没有时间得到像运动或者视觉那样的优化。我们最擅长的东西基本上是无意识的,在很久以前就被编码进了电路里面,久到它们的计算都还没有渗透到我们的经验当中。但因为逻辑是是我们能感知到的生物推理的第一范式,我们的思维机器必然是基于逻辑的。

计算机往往被比作大脑,但它们的工作方式与生物无关。今天仍然在用的计算架构是由数学家冯·诺依曼和他的同事在1945年首次阐述的。就概念而言,一台现代的笔记本电脑跟过去的那些穿孔卡片巨兽是一模一样的,尽管工程师已经把纸片换成了纯粹的电流开关信号。在一台冯·诺依曼机器中,所有的数据处理都是发生在中央处理器(CPU)上的。程序指令,然后是数据,以0、1序列的形式从计算机的内存流进CPU,这跟一摞卡片穿梭而过很像。尽管多核计算机使得一些处理可以并行发生,但它的效力还是有限的:软件工程师必须煞费苦心地编排好这些信息流以避免灾难性的系统错误。相反,在大脑中,数据是同时在数十亿个并行处理器——也就是我们的神经元内运行的。跟计算机一样,它们用电脉冲的二进制语言进行通信。所不同的是每一个神经元都是通过遗传模式或者习得的关联预编程好的,然后将它的计算直接共享给适当的目标。处理是有机地展开的,并不需要一个CPU。

我们可以来看看视觉。我们是通过一大批高达数百万个的光感受器来感知世界的,这些光感受器每一个都扮演着一小个特殊的角色,用神经活动来表示一张图像。这些神经细胞将这些表征送经分层的大脑区域,逐步形成视力的意识知觉。一台冯·诺依曼计算机也得摄入相同数量的数据,以及处理这些数据的指令到一个逻辑单核上。而且尽管计算机的电路传输数据要比的大脑的突触快得多,但做这个却也要消耗大量的能量。1990年,传奇的加州理工学院工程师Carver Mead正确地预测了我们当今的计算机单指令消耗的电量要比大脑用于对突触的一次激活所耗能量大千万倍。

AI最近大部分的成功都要归功于生物隐喻。比方说成为从Siri到Google Translate的基础技术的深度学习,采用了若干个互相连接的处理层,模仿的正是构成大脑皮质的神经层。尽管如此,考虑到即便是最先进的神经网络也是在冯·诺依曼机器上运行的,所以都是计算密集且极其耗电的,去年3月,Google DeepMind的围棋AI AlphaGo击败了人类的围棋世界冠军李世石,但当时的成功是基于在一个有3000万步走法的数据库上训练之后做到的,而它的功耗大概有100万瓦。(相比之下,人类大脑的能效是计算机的5万倍,只需消耗20瓦)类似地,7年前,Google的类脑机器利用了1.6万个处理器内核来自学识别YouTube视频里面的猫,这需要的功耗也非常之大。现在各家公司希望赋予我们的个人设备以智能,让我们的智能手机能认出我们的家庭成员,预料到我们的情绪,并对我们的用药提出调整建议。为了做到这些,AI需要超越运行于超级计算机之上的算法,体现在硅晶之内。

在Mead等人工作的基础上,工程师一直在相互竞赛,试图提出第一款所谓的消费级神经形态芯片。2014年,Kwabena Boahen在斯坦福大学的研究小组披露了自己的低功耗Neurogrid芯片,高通则宣布,其受到大脑启发的Zeroth处理器将会在2018年上市。还有一款是IBM的TrueNorth ,这款两年前披露的芯片只是最近才从数字原型发展成可用产品。它由100万个硅神经元组成,这些微型内核可利用类似突触那样的连接相互直接通信。其媒介是消息;每一个神经元既是程序也是处理单元。芯片接收的传感数据不是以单文件的形式传递,而是散发给整个突触网络的。TrueNorth最终是靠集体投票来做出决定的,比如对用户声音进行情绪音色的分类,这种过程就像唱诗班虽然由不同的歌手组成但却能唱出和音一样。IBM宣称该芯片对于语音处理或图像分类这一的实时模式识别很有用。但它最大的进展还是能效:芯片每平方厘米仅消耗20毫瓦的电能,比传统芯片效能提高了1000多倍。

TrueNorth也用来模拟大脑的那种杂乱。在过去几十亿年的历史里,生命必须学会如何凑合着使用自己那不完美的躯体——比如模糊的视力,有限的听力等等。尽管是透过模糊的、不可预测的分子间相互作用来感知世界,但生命体往往能以非凡的精确度来避开那些不确定性。在数学上看似bug的东西却变成了一项功能。结果表明,随机性给那些构成现代AI基础的概率算法增加了大量的计算能力;输入噪声可以重组输出,防止被困在糟糕的解决方案中。TrueNorth通过在每一神经元内置随机数生成器来创造自己的模糊性。IBM还在开发另一种芯片,这种芯片可以更加优雅地实现相同的目标,它所使用的材料可以通过一定程度的随机性将相位从非结晶形变成晶体形。而这就是计算正在发生的一场概念转变的关键:工程师将利用材料的计算属性而不是防范其内在的不可靠,就像他们对穿孔卡片所做的事情那样。材料不会执行计算,它本身就是计算。

考虑到我们对大脑的工作机制完全缺乏共识,这些设计或多或少只是神经科学家所认为可能会发生的事情的草稿。但即便这些并没有反映出真正的生物现实,AI最近的成功也说明了它们是有用的草稿。的确,可能它们最终会确认或挑战我们对大脑的理解,正如物理学家理查德·费曼总结那样:“我造不出来的东西也就理解不了。”或者可能它们的力量在于其简单性。布兰戴斯大学的神经学家Eve Marder曾经提出,我们在模型当中引入的细节越多,模型就越容易出错——这反映出神经科学的复杂性以及我们无知的程度。在设计实用型AI时严格的保真也许并不必要。比方说TrueNorth就不懂自学。该芯片必须经过优化才能执行在常规计算机上用AI执行的特定任务。如此看来,尽管TrueNorth是这种生物隐喻的一部分,但却是以另一种为代价实现的。不过么做可能也没有什么错。谁说大脑的每一项特性就都值得模仿呢?我们自己的人类算法未必就是理想的。正如达尔文所证明那样,进化不是一场不间断的朝着完美冲刺的赛跑,而是为了做到足够好的随便走走。

原文  http://36kr.com/p/5064057.html
正文到此结束
Loading...