转载

人工智能是不是应该有情绪?这个问题很严肃

人工智能是不是应该有情绪?这个问题很严肃

  近年来,人工智能(AI)已然成为大家的主流话题,它不再只是科幻迷的菜,也不只是谷歌工程师的专属,就算在晚会、咖啡店、甚至茶余饭后,你都可以听到人们在谈论人工智能。

  智力的发展,无论是人工智能或是人类本身,最终都是走向认知领域的增长和知识的学习。而自人工智能的第一代构想产生以来,行业对其的认知层面尚围绕在如何去发展的问题。公众里对这个领域的问题谈论最多的是:我们甚至还不能了解自己本身,又如何能够创造出另一种高智商的意识?

  这是个值得慎思的问题。人类的大脑重量尽管只有 3 磅,但它是人体中最难以捉摸的器官。在大脑内部,有数十亿个神经元,100 万亿种联系——可以说,我们还需要相当长的时间才能研究清楚大脑这个器官。

  普遍地,科学家们相信,人类意识是由大脑中众多化学物质编码而成,它折射出的是反映了人类本身以及外界的认知实体。

  但也有人认为,产生知觉的关键是对物质世界的意识。法国哲学家和数学家迪卡儿曾第一个说出“我思故我在”的意识论证。但思维并不就是充分的意识定义,而更准确的说法应该是:我相信我有意识,故我在。

  不过,当我们在探索一个宏达的意识理论时,我们的认知也未必能时刻满足方法论指导的需求。我们可以调教机器人,向其证明周围的世界是真实的,但我们无法向其证明的是,这一切并不是关于“缸中大脑”的悖论。

  艾伦脑科学研究所首席神经学专家 Christof Koch 对意识有更独特的见解。Koch 表示,意识可以发生在任何复合的处理系统中,包括动物、蠕虫,甚至是互联网。

  在回答意识是什么的时候,Koch 说道:“威斯康辛大学教授 Giulio Tononi 有一个理论叫整合信息理论(IIT),其宣称要提供一种精确的方法来测量意识,并用纯数学方法来对这种现象加以描述。在 IIT 理论框架下,猫一类的低等哺乳动物拥有一定的意识感知,昆虫也是,即便是微乎其微的意识。

  这种看法似乎符合我们的直觉,但神经系统是在何时产生意识的呢?就像开关一样突然开启了意识?而更有可能的情况是,意识来源于“经验”的逐步演变,从单细胞生物简单的、原始的感觉逐步演化到人类复杂的、定性的意识。所以,我们要时刻警惕,不能以拟人化的偏见来思量意识。

  因此,人类第一台通过机器创造的超智能产品或许在思想和行为上和我们具有明显的不同——甚至说它或许就不曾和我们有什么关联。事实上,未来我们创造的每一种人工智能都可能在短时间超越我们,然后离去。目前的人工智能处于从弱人工智能到强人工智能进发,通过自我改进来达成强人工智能的人工智能,只会把“人类水平的智能”当作一个里程碑,然后超越。人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。相比起人类的认知,人工智能的优势在于,它有着强大的计算机系统作为支撑。引用科学界的观点就是,现在的弱人工智能好比如地球早期软泥中的氨基酸——没有动静的物质,突然之间就组成了生命。

  但不管发生了什么,和人类学上文化相对主义依然存在的道理一样,我们也要时刻准备应对意识相对主义的存在。

  同样,人工智能或许会学习和复制人类的行为——甚至有可能是完美地——但总会有不一样的地方。如果只会模仿复制,那这和上发条的玩偶没有区别。人类都希望自身拥有更加丰富的意识。同样地,人工智能工程师也希望他们创造出的机器有更高层次的意识。

  尽管如此,我们仍旧致力于用自身的价值和思维方式创造人工智能,包括向其灌输我们的性格特征。如果一定要指出一个我们人类应该具备,同时还应该灌输给人工智能的品格,这将是“同理心”。只有同理心,才能帮助人工智能塑造出这个世界需要的意识类型,同时人类也可以理解和接受。

  但另一方面,如果创造了可移情的同理心,那么就必然会有喜欢或不喜欢的意识——甚至是对事物的爱或恨。这就成为了人工智能方面的难题。

  为了能让某种意识基于事物的价值做出判断,喜或恶都是这个系统必不可少的一部分。想象一下,假如人工智能懂得爱——超级智能机器懂得厌恶,或是伤心、内疚,就没有人为此而担心了吗?这确实是引起了诸多争议的——特别是当下已进入由机器控制自动化武器的无人机时代。然而,没有编入同理心的人工智能,也就像是一个上了发条的玩偶。

  纽约理工大学教授 Kevin LaGrandeur 最近发文表示:“如果一个机器真的能够‘感到’不同程度的内疚,那么我们会否面临机器抑郁或是机器‘自杀’的问题呢?”如果我们开发出了这样的强人工智能,我们将面临“创造了痛苦”的道德伦理问题。

  这是当前人工智能面临的困境。一方面,如果没有经历,没有多元,人工智能的意识不会健全;而另一方面,像人类那样懂得了认知的人工智能,其将和人类一样受到困扰。

正文到此结束
Loading...