转载

谷歌Principal Scientist谈AI:知识表示为何重要

如今人工智能(AI)的焦点与90年代时期时有很大的区别。20年前,人工智能关注的重点在于基于逻辑的AI,通常属于知识表示,即KR(Knowledge Representation),而今天的关注重点在于机器学习和统计算法。这种转变对AI很有帮助,因为机器学习和统计为解决特定问题(比如图像识别)提供了有效的算法,而KR从来没有达到这种效果。但我认为钟摆转过头了,丢失了一些有价值的东西。

知识表示并不是一个单一的内容。如果要完全概述知识表示,我会集中在它“应用哲学”方面——常识性概念的逻辑表示,将重点放在明确的语义基础上。

我用一则个人故事来说明。这个故事开始于2009年我在Journal of Philosophical Logic上发表的一篇论文,然后在斯坦福大学和杜克大学做的研究项目,之后做一家名为Timeful的公司,最后以Timeful被谷歌收购为故事结尾。这个故事的要点是,原始期刊论文与这家公司最终获得成功之间有着直接的联系。

这篇期刊论文名为Logics of Intention and the Database Perspective。在此之前,出现了一篇虽然简短但重要的论文,关于意图(intention)逻辑AI,由Cohen和Levesque提出的创意,论文名为Intention is Choice + Commitment。这篇文献受不太正式的理性代理哲学文献启发,比如Bratman的Intentions, Plans, and Practical Reason。我自己的论文灵感来自于Cohen和Levesque的论文,但是质疑了他们的基础理念,并提出了一种替代方法。虽然我的方法以计算为动力(如标题所示),但论点都是纯理论和纯哲学的。

紧随这篇期刊论文之后,我寻找一些可供继续研究的资金,就像教授经常做的那样。而资助者倾向于做的是,他们要求我纳入一些这项工作的潜在应用。然后发生了几件事。第一是我一直在处理意图——在我的个人日程表中。第二是这些是非常特殊的意图——硬性事件和会议。第三是我的个人日程表并不与我祖父的完全不同,显示人们的时间需求如何改变,以及科技如何进步,这很奇怪。最终引发了一个明显的问题:如果我用更丰富灵活的意图类型来改进日程表,而且日程表具备处理结果复杂性的智能,将会发生什么?

为更好了解这一点,值得对期刊论文中的理念进一步讨论。所提出的数据库视角在附图中,附图可以想象成是用来信念修正(belief revision)的AGM策划的泛化,后者被限制在图中“信念(belief)”部分。在AGM框架中,智能数据库不仅负责存储计划者(planner)的信念,还负责保持它们的一致性。在强化的框架中有两类数据库,一个存储信念(beliefs),一个存储意图(intentions),不仅负责维持每类数据库的一致性,还维持它们之间的一致性。在期刊论文中我提出了主要一致性条件,并在随后的论文中,与Icard和Pacuit给出了它的逻辑形式化,这是AGM框架的一种保守延伸。从这个观点深入更多的技术细节并不合适,它们很多确实与此无关。但重要的是,意图数据库在agent中具有智能功能。

现在回到故事主线上来,赞助者被说服了,我们开始了一个小项目来探讨这些想法。接下来的两年里很有趣,但与这个故事并不太相关,除了:这个项目很快由一位新的博士学位毕业生Jacob Bank领导;同时我的老朋友和同事Daniel Ariely也参与了进来,他是著名的经济学家;在2013年初的时候,我们决定创办一家公司,最后称为Timeful。我们的共同研究并没有驱动我们太多,因为意识到在社会中时间管理问题多么刻不容缓,以及目前处理此问题的工具是多么的不适用。

当2014年7月Timeful 1.0问世时,用户和新闻媒体的反应是十分赞许的。在第一个月中收到了2000封用户邮件,其中大多数都是情绪化的。很明显已经触动了Timeful的神经,即使该产品仍然有很长的路要走。很快,这家公司吸引了主要参与者的兴趣,最终被谷歌收购。如果不是KR,这一切都不可能发生,下面就是原因:

意图对象作为基本数据模型

Timeful开发了个人时间助理(PTA),其作用是帮助管理时间,资源是最稀缺也是最难管理的。这种方法建立在三个主要支柱上。第一,它允许用户自然地在系统中表示占用时间的一切事物。第二,机器学习和其他算法应用于本质上难以优化的问题。第三个支柱是行为科学,这意味着制作一个环境来巧妙帮助校正我们都会犯的时间管理错误(比如时间拖延和对未来可用性过高评估)。其中,我最希望把重点放在讲解第一支柱上;它是三个支柱中最基本的一个,并且也是直接基于KR的支柱。

考虑所有会占用我们时间的事物:会议、活动、差事、项目、爱好、家庭、健康维护、运动、或用于思考和学习的时间。它们表面上都是不同的,并且位于不同的运用场景(会议和活动列在日程表中,差事列在待办事项中,项目列在项目管理系统中)或只是停留在脑海中。它们都会占用同样的资源——时间——如果你要做出明智的权衡,它们应该列在同一个地方。事实上,它们都是意图(intentions),尽管有不同的属性。根据智能意图数据的设想,第一个基本判断是开发一个数据模型,足以涵盖所有的意图类型。结果这个数据模型被叫做意图对象(IO)。IO是一个特征向量,包括文字说明,时间属性(它什么时候可以执行,什么时候应该执行,持续时间——都由不同程度的精度来指明),执行意图的条件(比如位置信息或者需要的工具),以及其他属性类型。

意图对象成为了这个系统的基础,所有东西——包括算法调度和行为轻推——都依靠于它们。当然,用户不会呈现成特征向量,而是与几个预打包的意图类放在一起。截至2015年4月,一个有四类:事件(events,比如会议);任务(tasks,比如拨打电话);习惯(habits,比如一周慢跑三次);和项目(projects,比如撰写长篇报告)。但是在底层,系统将它们分解成特征向量。

更多产品决策

知识表示不仅仅是Timeful的源动力,也是它数据模型的灵感来源。在进行特定产品决策时,小组多次从哲学文献中寻找指引。要充分表述这点很困难,下面是两个具体的例子。

第一个例子,必须进行适度标记。 所有待办事项列表都允许你检查完成的任务。Timeful也有这个功能,但困扰我们的是,任务有标记但是事件没有,尽管他们都是IO。这与其说是审美不对称,倒不如说是底层原则,以及这些原则应该如何应用于其他IO,比如习惯和项目。然后我们又回到根源,并意识到必须跟踪用户的承诺(commitments)。如果有一个原则受到哲学文献同意,那么它就是意图包含承诺(反映在Cohen和Levesque的论文标题)。当我打算做一件事情时,我并不只是记下它;我决心跟踪它并完成它。从这个角度看,我们意识到时间不需要跟踪;一个会议被安排它就完成了(也有例外,比如如果会议可能有未达成的目标,但这些由与会议相关的独立任务来完成)。其他所有的意图类型都需要明确监控,因此,我们最后为所有的IO附上标记,除了事件。

当你建立一个产品时,你希望它有内在美。

第二个例子,必须处理意图的时间范围。 大多数待办事项系统都是“羞耻名单”——你记下来但是从来没有做的事情。我们希望避免这种情况,并且通过严格的时间范围界定来实现。这个早期的决定追溯到文献中一个小型的辩论。在Cohen和Levesque的形式主义中,类似于“我打算读这本书”这种语句是基本概念。但是在我的期刊论文中,我认为这是有问题的,它可以追溯到承诺问题。如果我要承诺某个没有固定时间的意图,我到底是在向什么承诺,以及它是如何真正驱动行动?(如果你家里有一位青少年,你知道我的意思。)相反,我认为,这基本结构应该是类似于“我打算在周六下午2点至4点读书”这样的语句。然后你可以用存在量化来松弛,并给出诸如“我打算周末花两到三个小时来读书”这样的意图。但是你总是明确时间范围。Timeful采用来了这种理念;与用户的隐性契约是,她应该认真对待她的意图,作为回报,该系统将帮助她实现这些意图,通过将它们列入她的日程表并促进她完成(应用启动时的标语是“get it scheduled, get it done”)。因此,每项任务都需要一个“完成(do on)”或“预计(do by)”日期。然后,任务会出现在时间格中,旁边是事件。(在“do by”情况下,系统挑选个截止日期之前的时间,用户可以根据需要进行修改。事实上,如果后来某个时间替换了任务,系统会自动将任务移动。)同样的逻辑也适用于习惯和项目,以更复杂的方式。

结论

Timeful的故事是皆大欢喜的,很多部分都与KR相关。一个人在没有KR或哲学的情况下能够有相同的见解吗?可能吧,但事实上没人能做到,我认为这并不是意外情况。当你建立一个产品时,你希望它有内在美。我这么说的意思是,通常情况下,当你着手设计一个伟大的用户体验,你还没有什么能做好或不好的概念词汇,你在与现有概念框架和数据模型抗衡。如果内部结构不正确,你将永远得不到真正有美感的用户体验。哲学与KR鼓励你严格思考概念架构,并在你设计特定功能时提供指导。

这并没有减少机器学习和统计的重要性。但是机器学习需要特征空间,而且统计需要事件空间。即使是最热门的深度学习爱好者也不会认为那些总是会产生机械姬,独立于人类洞察力(除非你为谷歌工作,并且只对catsa感兴趣)。

这是否意味着每一个哲学难题和逻辑谜题有着直接的现实意义?当然不是。但是,如果你正在设计一辆车,你确实需要轮子,所以你不需要重新发明轮子,特别是如果你发明的轮子不那么圆的时候。

我们有理由感到乐观。有迹象表明,研究者越来越对“机器学习和统计将解决所有问题”的观点持怀疑态度,例如,最近AAAI讨论会汇集了知识表示、机器学习、语言学和神经科学领域的领先研究人员,来讨论这些领域之间的互动。我的感觉是钟摆已经开始轻微往回摆动了,如果我们作为一个社区来鼓励这趋势,AI会变得更好。

参考文献

  1. AAAI Spring Symposium on KRR: Integrating Symbolic and Neural Approaches, Stanford University (Mar. 2015);  https://sites.google.com/site/krr2015/
  2. Alchourròn, C.E., Gärdenfors, P., and Makinson, D. On the logic of theory change: Partial meet contraction and revision functions. Journal of Symbolic Logic 50 (1995), 510–530.
  3. Bratman, M. Intentions, Plans, and Practical Reason. Harvard University Press, 1987.
  4. Cohen, P. and Levesque, H. Intention is choice + commitment. J. Artificial Intelligence 42 (1990), 213–261.
  5. Icard, T., Pacuit, E., and Shoham, Y. Joint revision of belief and intention. In Joint Proceedings of the 12th International Conference on Principles of Knowledge Representation and Reasoning (KR), 2010.
  6. Shoham, Y. Logics of intention and the database perspective. J. Philosophical Logic 38 (2009), 633–647.

关于作者: Yoav Shoham (shoham@stanford.edu)是谷歌的首席科学家、斯坦福的教授(退休)。

原文地址: Why Knowledge Representation Matters (译者/刘翔宇 审校/赵屹华、刘帝伟 责编/仲浩)

译者介绍: 刘翔宇,中通软开发工程师,关注机器学习、神经网络、模式识别。 

正文到此结束
Loading...