30年前,AI研究的一个主要挑战是对机器进行编程,以便将潜在的原因与一系列可观察的条件联系起来。珀尔想出了使用贝叶斯网络(Bayesian networks)解决这个问题的方法。贝叶斯网络使机器有了更强的推理能力,假设有个病人从非洲回来,并伴随有发烧和全身疼痛的症状,机器认为最有可能的解释就是他患上了疟疾。2011年,珀尔获得了计算机科学的最高荣誉——图灵奖(Turing Award),在很大程度上要归功于贝叶斯网络。
但正如珀尔所看到的,AI的发展已陷入“概率关联”(probabilistic associations)的泥潭。近来,许多头条新闻都吹捧机器学习和神经网络的最新突破,比如计算机可以下棋和驾驶汽车。珀尔对此反应冷淡,他认为如今的AI技术只不过是让一代人之前的机器的升级版,同样是让它们在大数据中发现隐藏的规律。珀尔最近表示:“深度学习取得的所有令人印象深刻的成就都只是曲线拟合。”
现年81岁的珀尔在他的新书中阐述了真正的智能机器如何思考的愿景。他认为,关键在于用因果推理来取代关联推理。机器需要知道的是,疟疾是引起发烧的原因,而不是仅仅将发烧和疟疾联系起来。一旦这种因果关系框架就位,机器就有可能提出反事实的问题,询问在某种干涉下因果关系会如何变化,而这恰好被珀尔视为科学思想的基石。珀尔还提出了一种让这种想法成为可能的正式语言,即21世纪版本的贝叶斯框架,允许机器在概率基础上进行思考。
珀尔预期,因果推理可以为机器提供相当于人类水平的智力。他解释说,机器将能够更有效地与人类交流,甚至可以通过获得“道德实体”的地位,具有自由意志和邪恶能力。最近,在圣地亚哥的一次会议上,珀尔接受了《量子杂志》记者凯文·哈特尼特(Kevin?Hartnett)的电话专访。
以下是经过编辑和精简的采访摘要:
问:你为何给新书取名《The Book of Why》?
珀尔:它是对我过去25年中有关因果关系研究工作的总结,比如因果关系在人类生活中意味着什么,它如何应用,以及我们如何解决固有的因果关系问题。令我感到奇怪的是,这些问题已经被科学抛弃了,所以我来这里是为了弥补科学忽视的东西。
问:科学已经抛弃了因果关系,这是个听起来很有戏剧性的说法。难道它不正是所有科学研究的主题吗?
珀尔:当然,但是你无法在科学方程式中看到这种崇高的愿望。代数语言是对称的,如果X告诉我们关于Y的信息,那么Y反过来也能告诉我们关于X的信息,我讲的是确定性关系。在数学上没有办法简单地写出一个事实。例如,即将来临的风暴会使气压下降,而不是上升。数学还没有发展出一种不对称语言来获取我们的理解,如果X原因导致Y结果,这并不意味着Y结果是由X原因引起的。这听起来像是一种反对科学的可怕说法。我知道,如果我对妈妈说自己反对科学,她可能会打我。
但是科学更加宽容:我们缺少有关不对称关系的计算,科学鼓励我们去创造。这就是数学的由来。对我来说,看到使用简单的因果关系演算解决了我们这个时代最伟大统计学家都认为无法确定或不能解决的问题,这让我非常激动。所有这些都和在高中几何中找到某个证明关系一样,让人觉得轻松,乐趣无穷。
问:几十年前,你因教授机器学习概率推理而在AI领域名声大噪,你能解释下当时AI领域的状况吗?
珀尔:20世纪80年代初出现的问题是预测性或诊断性的。医生会从病人身上观察到一系列症状,并推测其患疟疾或其他疾病的可能性。我们想要自动化系统、专家系统以能够代替专业人员,无论是医生、矿产资源管理人员,还是其他付费专家。所以当时,我想到了一个通过概率来解决这些问题的可行方法。不幸的是,标准概率计算需要指数空间和指数时间支持。我想出了名叫贝叶斯网络的方案,它需要多项式时间,而且非常透明。
问:但在你的新书中,你把自己描述为当今AI社区的“叛徒”,这是为何?
珀尔:从某种意义上说,当我们开发出能够让机器对不确定性进行推理的工具时,我就离开了AI领域,去追求一项更具挑战性的任务:因果推理。我的许多AI领域同事仍在研究不确定性。有些研究小组继续在研究诊断问题,而不去考虑问题的因果关系。他们想要的只是更好的预测和诊断结果。举个例子,我们今天看到的所有机器学习研究都是在诊断模型中进行的,比如把目标对象标记为“猫”或“老虎”。他们不关心干预因素,只是想要识别某个对象,并预测它将如何随着时间的推移而进化。
当我开发出强大的预测和诊断工具时,我觉得这只是人类智慧的冰山一角,这是我觉得自己是个“叛徒”。如果我们想让机器解释干预(如果禁烟会如何?)和内省(如果我已经高中毕业了怎么办?)的原因进行推理,我们必须给出因果模型,仅用联想是不够的。并且这是个数学事实,而不是观点。
问:人们对AI带来的可能性感到兴奋,你如何看?
珀尔:就像我研究深度学习在做什么一样,我发现他们都被困在了关联性层面的问题中——曲线拟合。如果说所有深度学习取得的令人瞩目的成果都只是对数据的曲线拟合,这听起来好像是一种亵渎。但从数学层次的角度来看,无论你如何巧妙地操作数据,以及在操作数据时能读取哪些信息,它仍然属于曲线拟合,只是更加复杂和繁琐罢了。
问:你谈论曲线拟合的方式,让人觉得好像你对机器学习印象并不深刻。
珀尔:不,机器学习给我留下了深刻印象,因为我们从没有预料到有那么多问题可以通过纯曲线拟合来解决。事实证明,这完全可行。但我要问的是未来,接下来会发生什么?你会有机器人科学家来规划实验,并为悬而未决的科学问题找到新的答案吗?我认为,这才是机器学习的下一步。我们还想和机器进行有意义的交流,这意味着可与我们的直觉相匹配。如果你剥夺了机器人对因果关系的直觉,你就永远无法与其进行有意义的交流。机器人不能像你和我一样说“我本应该做得更好”。因此,我们失去了一个重要的沟通渠道。
问:可以与我们分享因果关系直觉的机器有哪些前景?
珀尔:我们必须给机器配备环境模型。如果机器没有现实模型,你就不能指望它能在这个现实中有智能的行为。第一步,可能会在10年之后发生,那就是人类可以编程的现实概念模型。下一步将是机器将自行假设这些模型,并根据经验证据来验证和完善它们。这就是科学中始终在发生的事情,例如人们最初相信地心说,后来又发现日心说。机器人也会相互交流,并将这个假想的世界转换成隐喻模型。
问:当你和AI领域工作的人分享这些想法时,他们会如何反应?
珀尔:AI领域目前正处于分裂状态。首先,有些人陶醉于机器学习、深度学习以及神经网络的成功中,他们根本不明白我在说什么,只是想继续保持曲线拟合。但是,当你和那些在统计学习以外的AI专家交谈时,他们立刻就可以理解。在过去的两个月里,我读了几篇关于机器学习局限性的文章。
问:你是说正出现一种抛弃机器学习的趋势吗?
珀尔:这不是一种趋势,而是一种认真的自我反省,包括自问:我们要去哪里?下一步是什么?
问:这是我想问你的最后一件事。
珀尔:我很高兴你没有问我关于自由意志的问题。
问:在这种情况下,你怎么看待自由意志?
珀尔:我们绝对会有自由意志的机器人。我们必须了解如何给它们编程,以及我们能从中获得什么。出于某种原因,就进化方面而言这种自由意志在计算层面也将是需要的。
问:以什么方式?
珀尔:你有自由意志的感觉,进化使我们有了这种感觉。显然,它提供了一些计算功能。
问:当机器人有自由意志时,会不会很明显?
珀尔:我认为第一个证据是,机器人之间是否开始相互交流,比如“你本应该做得更好”。如果一个机器人足球队开始用这种语言进行交流,那么我们就会知道它们有了某种自由意志。它们可能会说:“你应该把球传给我——我在等你,而你却没有!”“你本应该”意味着,你可以控制任何让你做某件事情的冲动,而你却没有。为此,第一个信号是交流,下一个信号将是更好的足球。
问:既然你提到了自由意志,我想我应该问你关于作恶的能力,我们通常认为这取决于你做出选择的能力,它意味着什么?
珀尔:这是一种信念,认为你的贪婪或委屈取代了社会的所有标准规范。例如,一个人拥有类似于软件模块的东西,上面写着:“你饿了,所以你可以采取行动来满足你的贪婪或不满。”但是你还有其他的软件模块可以指导你遵循社会的标准法则。其中一个叫做同情。当你把你的不满提升到社会普遍的标准之上时,那就是罪恶。
问:那么,我们怎么知道AI有能力犯罪呢?
珀尔:当我们发现机器人明显开始忽略软件组件时,对我们来说这就是个明显的迹象。此外,当机器人似乎遵循某些软件组件的建议而不遵守其他建议的时候,或当机器人忽略其他维护已经被编程行为规范组件的建议时,这些都值得我们警惕!
来源:网易科技,由 宋淑杰 整理编辑!