京东AI周伯文:AI需要具备严密的推理和逻辑的能力

人工智能,京东
在上周O'Reilly和英特尔联合主办的AI Conference 2018北京站大会上,京东集团副总裁、AI平台与研究部负责人周伯文发表了演讲,分享了AI市场的发展和AI所面临的技术挑战。
 
周伯文认为,通用人工智能的到来并没有时间表,但是从ANI(狭义AI)到ABI(广义AI)有七个主要的技术难题需要克服。第一需要系统地解决遗忘问题,需要做持续学习;第二AI需要具备严密的推理和逻辑的能力;第三是AI系统需要能在没有任何输入的情况下自我学习;第四是架构需要更新;第五是AI需要变成一个自己能够组合,完成一个更复杂的系统;第六是打破黑盒;第七是去掉偶然的成份。(小羿)
 
以下为周伯文博士演讲实录:
 
周伯文:我今天想跟大家探讨一个话题,大家都知道AI是一个方兴未艾的市场,我想告诉大家,其实这个市场可以比这个大100倍。当然,我们要达到这个目标,我们需要更多的努力。今天我想跟大家分享一下这些思考,关于这些技术挑战的思考。
 
就像我说的一样,AI是今天所有人都在讨论的话题。当我们在谈AI的时候一般会谈什么?我们会谈很多非常出色的AI的系统,在各种比赛中,从最近的AphaGo到AlphaZero等等,再到更早1950年我们就做过一个用AI来下棋的一个Game。除了这种非常有明确规则和边界的下棋之外,其实AI还能用这种天生带有模糊性的自然语言理解和问题回答的竞赛。在危险边缘的百科知识竞赛中,IBM的Watson击败了人类的冠军。当然远远不仅仅是棋类比赛,AI还可以创作性的协作。这是我们2016年做的一个工作,让AI读新闻,一个字一个字的像人类一样写一个新闻的标题,第一段是一个新闻,第二段是我们人类记者写的标题,第三段是我们的AI写出来的标题。能够发现有几个非常值得注意的是,这个动词是AI自己想出来的,原文里面没有,上下文里面也没有。对比的人类用的对此就不一样,AI用的是一个更书面化的动词。同时对于这个里面的主语,是马来西亚的Mahathir,相对应的人类记者写的是Mahathir的Leader。从这里可以看到,AI做了一个创造性的改变,他知道什么时候忠实于原文,什么可以创造。
 
人工智能还可以做更多的推理,这样的工作就是用人工智能回答专业领域的问题,关于一个保险的问题。客户问到如果我买一栋带游泳池的房子,那我的保费会上升多少。这一类的专业问题,人工智能也回答的非常好。下面的答案是人工智能从很多文档里面找出来的一个答案,但是这个答案的神奇在于,不但告诉你这是一个好的答案,而且帮你标出了为什么这个答案是好的,这个推理远远超越我们的想像。这里提到的,最后面这个角落提到把近邻找出来,告诉这个用户的邻居是谁。这里面有一个专业的知识在里面,保费取决于你的风险,风险取决于你有没有邻居。如果你的邻居在你的游泳池里面出事了,保险公司要承担很大的责任,如果没有邻居,这个保费就不会很大,所以人工智能做了这么一个好的推理,告诉你这是一个好的答案。人工智能还能做很多机器阅读、问题回答的例子。所有这一切,我想告诉大家,这一切都是我所说的狭义的人工智能的例子。今天我们仍然是从狭义的人工智能往广义的人工智能在转变,我到底狭义和广义是指什么?我给大家花一点时间介绍一下。
 
大家可能听过人工智能,听到AGI,即通用人工智能。有些公司在研究。我们定义一下,to AGI,我们并不知道什么时候会到来。AI我们知道的比较多,今天的AI需要大量的数据,需要人工智能算法专家去设计架构,优化规则,设计程序去学习,每个任务都是分离和独立的。通用的人工智能是我们做人工智能所有的研究者梦寐以求的东西,我们希望这个人工智能系统有更多的广义的自主性。我们希望它能够无时不在的都在学习,它能够从阅读中学习,从讨论中学习,从观察中学习,从做实验中学习。我们希望这个人工智能系统的架构,它的特征表达、学习算法和优化算法是相互影响、相互一起来协作往前进,而不是说人设计一个再去设计另外一个,这是我们希望做的广义的人工智能,或者说通用的人工智能。
 
就像我说的一样,通用人工智能并没有一个明确的时间表,我们看到这个定义也不是特别的清楚。我想广义的人工智能是我们下一个里程碑。我把广义的人工智能定义为有下面几个特点:
 
第一,人工智能系统能够自己去补充知识,能够选择性的补充知识,在离线的时候,会从不同的资源当中学习知识;
 
第二,它能够保留和适应原有的这些人工智能模型,在新的任务里面,它能够很快的适应,但是同时,它不会忘记已有的一些技能;
 
第三,因为它的学习方式,它的技能会越来越好,同时不会忘记原来的技能。
 
从ANI(狭义AI)到ABI(广义AI)有七个主要的技术方向,需要我们的研究人员和技术工作者克服,跟大家简单分享一下:
 
第一,ANI现在做的是狭隘的,一个个独立的AI问题,ABI是要做广义的、打通的终身学习。需要做到这个目的,就需要我们去系统的解决这个遗忘问题,做更好的Learning to Learning,需要做持续学习。
 
第二,我们现在的系统,大部分的神经网络深度学习系统需要取得选择性的弹性,为什么让AI从头到尾写一本严密的推理小说是不可能的,因为他不可能做到这么严密的推理和逻辑。他们不能够在很长的时间上去理解,这是一个很重要的能力。
 
第三,我们现在看到的人工智能虽然非常成功,大部分是来自于大数据。我们下面就需要从新的方向,我们需要不仅仅是标注的、监督的学习,也不仅仅是我们最近看到非常成功的这种,还有一种更极端的情况,就是连输入都没有,这个系统能够自己自我学习,这个听起来好像很神奇,但是我们人类就是这么做的。有一个生理现象,就是你每天晚上回到家的时候,你睡着了以后,你的大脑里面会重演一遍你今天做的事情,你在想什么做的不对,什么做的好,到第二天早晨起来的时候你还记得。这种情况下AI系统也会有,就是在没有任何输入的情况下自我学习。
 
第四是架构要变。我们现在是AI专家在设计,大家一起来学习,到将来AI一定是自己学习去更新。
 
第五,我们需要变成一个自己能够组合,完成一个更复杂的系统,怎么组合,怎么完成更复杂的系统,这是AI需要自己去掌握的。
 
第六,今天的AI更多的情况下是黑盒,我们需要AI的公司让用户、专家能够理解为什么要做这个决定。就像我刚才讲的例子一样,为什么说那个答案提到了回答保险公司的情况是一个好的答案,因为他提到了你的近邻,给你解释为什么是一个好的回答。
 
第七是关于优化,优化这一块,我们今天人工智能的成功有点偶然的成份,我们做了一个神经网络,理论上大家都知道它是非最优的。但是我们发现,好像在使用的系统当中也可以,这就导致今天AI大量的成功。但是如果达到了前面的那些目的,就是你在不停的演进,你的表征在演进。在这种新的框架下面,我们很难有运气把这个问题解决。所以我认为,更有效的方式是一定需要的。
 
下面给大家举两个具体的例子,挑两个方向给大家讲一下近期的研究成果,让大家看到一些ABI出现的一些前景。首先我想给大家讲一下从所有可能的输入中去学习,这个方向的研究领域很多,我给大家挑一个最近的工作,很有意思,就是机器阅读、理解和问题回答。大家都知道,机器阅读理解现在能够非常好的回答百科全书的工作。一个原因就是能够很好的标注这些数据,产生问题再产生答案去训练。所以训练数据里面,监督学习需要文档,机器阅读文档,机器看这个问题,再看答案,再一起来做这个学习,几十万数量级的大数据做学习。如果我变成ABI,如果真的能够阅读理解跟人类一样,那为什么你读一个新的领域的文章还需要我给你标注数据呢?能不能自己读完这个文章,就把这个文章看懂?所以我们现在做的一个研究就是,怎么能够把一个系统回答问题,挪到一个新的领域。这个新的领域里面,不给他任何问题,他自己要学会,我们只测试数据和训练数据。人是怎么读的?我们想人读新的文章,会自问自答,他讲的是什么事情,什么问题。这是关于印度尼西亚的一个篮球员的新闻,来自CNN。有多少英国人被救了,答案是3个,文章里面提到过。从这个过程当中,就会产生新的领域的阅读能力。我们做ABI的学习方式,跟人类的学习是非常像的。
 
我们把这个新的领域的阅读理解问题回答变成两个任务。一个就是我们去训练一个教师系统,就是自问自答,我读了这个文章产生哪些问题,让用户自己找到答案,通过这个过程,对这个过程加深了深刻的理解。我们把自己产生的问题和回答放到一起去训练一个模型,去做新的领域的阅读理解。所以可以看到这些结果,如果你不用原来百科全书的去做的话,如果完全给你一个标注的话,准确度高很多。但是如果我们用这种方法,完全没有数据怎么去学?在很大程度上接近了后者,比前者好很多。
 
再讲下一个话题,我们看到一些类脑(Brain-Inspired)的算法,很多人工智能做这些简单的工作,跟人的大脑相比,这个差距是非常明显的,我们的大脑是一个非均衡的动态系统。绝不仅仅是一个简单的预测系统。将来的ABI和AGI,一定会结合这种弹性,包含什么时候该选择记住,什么时候该选择遗忘。你的记忆等等,所有的这些要融合在一起,就像我们坐的飞机跟鸟一样去飞,现在缺乏这样一个机制。我们现在做了一个终身学习,觉得更有弹性,更可靠。这其中一个问题就是,我怎么让这个大脑,让这个AI系统有可变化性,跟人类大脑一样。为什么会这么讲?因为大家可能不知道,在我们大脑中有一个现象,我们每天都有新的脑细胞在产生,也有脑细胞在死亡。所以你会在中国听到一句话说,这个问题太难了,会死很多的脑细胞。但是即使是一个成年人,也会有很多新的脑细胞产生。
 
这种现象在我们AI里面的下一个工作,我们在做动态重构的一个工作。下面这个图,中间那一层是一些个蓝色的节点,可以想像成一个隐性的神经元。我们做的你可以想成是一个稀疏的,中间蓝色的点代表了中间一层神经元。我们做的工作就是,我能不能在学习的过程当中动态的看一下这一层有多少神经元,可以加上这个神经元,也可以选择性的模拟脑细胞的产生和死亡。这个产生的过程中,因为我在AI系统面临不同的挑战,就是我以前学的很好的东西,我现在做一个新的东西,我发现不适应了,所以脑细胞要死亡。人类说学这个东西死了很多脑细胞,我可能文科很好,做数学死了很多脑细胞,就说明有些脑细胞可能不适合学数学,所以会自然而然的死亡,但是有新的脑细胞产生,所以就会产生新的脑细胞,这是这张图的意义。
 
我们看一下这个结果。通过这种做法,可以看到,我们现在做的是试图重构不同的图,不断的改变系统测试的环境。这个系统本来的训练是重构这个城市风光,城堡、别墅,我们动态产生一些让它去重构这种植物、自然风光,包括花、草这些东西。这种环境不断的变化,我们发现在学习过程当中,这个系统不断的产生新的细胞和老的细胞。到最后动态产生的系统远远好于一个静态的人工专家设计的系统。我们发现,这个结构更压缩,更有效率,数据的规模更小,模型规模更小,这是一个非常有意思的视角。
 
如果我的整个演讲,大家能够记住一句话的话就是这句话:ABI意味着有更好的需求和标识数据,我们对专家人工系统,算法专家的依赖性会减少,我们会有更多可解释的人工智能解决给大家分享。更重要的在于,你去设计和研发的一个AI系统,可以来做更多不同的任务。所有这一切合在一起,就会形成我们说的ABI。但是如果ABI能够达到,对任何AI的应用企业,对AI的使用者来说,这意味着一个比今天大100倍的人工智能市场,谢谢大家!
smarthome
我们关注自动驾驶领域的价值发现和趋势,如果你希望寻求报道,欢迎随时和我们联系。