Editsprings@163.com (周一至周日,9:00-23:00) | (周一至周日,9:00-23:00)

艾德思:图灵奖得主Hinton和LeCun最新演讲深度学习如何继续革命

论文润色 | 2019/06/27 11:38:38  | 277 次浏览

6月23日,图灵奖得主Geoffrey Hinton和Yann LeCun在ACM FCRC 2019上,分别做了题为<深度学习革命>/<深度学习革命:续集>的精彩演讲,分享自己的真知灼见,一起来看我们的解读.

  深度学习从何而来?又该向哪去?

  近日,图灵奖得主/深度学习巨头Geoffrey Hinton和Yann LeCun在ACM FCRC 2019上发表了精彩演讲.

  

  二人分别在大会上做了题为<深度学习革命>和<深度学习革命:续集>的精彩演讲.目前视频已经公开:

  

  新智元对演讲内容进行了整理.

  Geoffrey Hinton:<深度学习革命>

 

  Geoffrey Hinton

  Hinton表示,自从20世纪50年代开始,人工智能存在两种范式:分别是逻辑启发的方式和生物学启发的方式.

  逻辑启发的方式(The logic-inspired approach):智能的本质是使用符号规则来操纵符号表达. 我们应该专注于推理.

  生物学启发的方式(The biologically-inspired approach):智能的本质是学习神经网络中连接的优势. 我们应该专注于学习和感知.

  不同的范式便使得最终的目标有所不同.因此,在内部表示(internal representation)方面也存在着两种观点:

  内部表示是符号表达式.程序员可以用一种明确的语言把它们交给计算机;可以通过对现有表示应用规则派生新的表示.

  内部表示与语言完全不同.它们是神经活动的向量(big vectors);它们对神经活动的其他载体有直接的因果影响;这些向量是从数据中学到的.

  由此也导致了两种让计算机完成任务的方法.

  首先是智能设计:有意识地精确计算出您将怎样操纵符号表示来执行任务,然后极其详细地告诉计算机具体要做什么.

  其次是学习:向计算机展示大量输入和所需输出的例子.让计算机学习怎样使用通用的学习程序将输入映射到输出.

  Hinton举了一个例子:人们花了50年的时间,用符号型人工智能(symbolic AI)来完成的任务就是"看图说话'.

 

  针对这项任务,人们尝试了很长时间来撰写相应的代码,即便采用神经网络的方式依旧尝试了很长一段时间.最终,这项任务得到很好解决的方式竟然是基于纯学习的方式.

  因此,对于神经网络而言,存在如下的核心问题:

  包含数百万权重和多层非线性神经元的大型神经网络是非常强大的计算设备.但神经网络是否从随机权重开始,并从训练数据中获取所有知识,从而学习一项困难的任务(比如物体识别或机器翻译)?

  针对这项问题,前人们付出了不少的努力:

 

  针对怎样训练人工神经网络,Hinton认为分为两大方式,分别是监督训练和无监督训练.

  监督训练:向网络显示一个输入向量,并告诉它正确的输出;调整权重,减少正确输出与实际输出之间的差异.

  无监督训练:仅向网络显示输入;调整权重,以便更好地从隐含神经元的活动中重建输入(或部分输入).

 

  而反向传播(backpropagation algorithm)只是计算权重变化怎样影响输出错误的一种有效方式.不是一次一个地扰动权重并测量效果,而是使用微积分同时计算所有权重的误差梯度.

  当有一百万个权重时,反向传播方式要比变异方式效率高出一百万倍.

  然而,反向传播算法却又让人感到失望.

  在20世纪90年代,虽然反向传播算法的效果还算不错,但并没有达到人们所期待的那样——深度网络训练非常困难;在中等规模的数据集上,一些其他机器学习方式甚至比反向传播更有效.

  符号型人工智能的研究人员称,期望在大型深层神经网络中学习困难的任务是愚蠢的,因为这些网络从随机连接开始,且没有先验知识.

  Hinton举了三个非常荒诞的理论:

 

  而后,深度学习开始被各种拒绝:

  2007年:NIPS program committee拒绝了Hinton等人的一篇关于深度学习的文章.因为他们已经接收了一篇关于深度学习的文章,而同一主题的两篇文章就会"显得过多'.

  2009年:一位评审员告诉Yoshua Bengio,有关神经网络的文章在ICML中没有地位.

  2010年:一位CVPR评审员拒绝了Yann LeCun的文章,尽管它击败了最先进的文章. 审稿人说它没有告诉我们任何关于计算机视觉的信息,因为一切都是"学到的'.

  而在2005年至2009年期间,研究人员(在加拿大!)取得了几项技术进步,才使反向传播能够更好地在前馈网络中工作.

  到了2012年,ImageNet对象识别挑战赛(ImageNet object recognition challenge)有大约100万张从网上拍摄的高分辨率训练图像.

  来自世界各地的领先计算机视觉小组在该数据集上尝试了一些当时最好的计算机视觉方式.其结果如下:

 

  这次比赛的结果后,计算机视觉相关的组委会们才突然发觉原来深度学习是有用的!

  Hinton在演讲中讨论了一种全新的机器翻译方法.

  对于每种语言,我们都有一个编码器神经网络和一个解码器神经网络.编码器按原句中的单词顺序读取(它最后的隐藏状态代表了句子所表达的思想).而解码器用目标语言表达思想.

  自2014年年以来,神经网络机器翻译得了很大的发展.

 

  接下来,Hinton谈到了神经网络视觉的未来.

  他认为卷积神经网络获得了巨大的胜利,因为它若是在一个地方能行得通,在其它地方也能使用.但它们识别物体的方法与我们不同,因此是对抗的例子.

  人们通过使用对象的坐标系与其部分的坐标系之间的视点不变几何关系来识别对象.Hinton认为神经网络也能做到这一点(参考链接:).

  那么,神经网络的未来又是什么呢?

  Hinton认为:

  几乎所有人工神经网络只使用两个时间尺度:对权重的缓慢适应和神经活动的快速变化.但是突触在多个不同的时间尺度上适应.它可以使快速权重(fast weight)进行short-term memory将使神经网络变得更好,可以改善优化/可以允许真正的递归.

   Yann LeCun演讲:<深度学习革命:续集>

 

  Yann LeCun

 

  Jeff刚才提到了监督学习,监督学习在数据量很大时效果很好,可以做语音识别/图像识别/面部识别/从图片生成属性/机器翻译等.

 

  如果神经网络具有某些特殊架构,比如Jeff在上世纪八九十年代提出的那些架构,可以识别手写文字,效果很好,到上世纪90年代末时,我在贝尔实验室研发的这类系统承担了全美手写文字识别工作的10%-20%,不仅在技术上,而且在商业上也是一个成功.

  到后来,整个社群一度几乎抛弃了神经网络,一方面是因为是缺乏大型数据集,还有部分原因是当时撰写的软件过于复杂,投资很大,还有一部分原因是当时的计算机速度不够快,不足以运行其他所有应用.

 

  卷积神经网络其实是受到了生物学的启发,它并不是照搬生物学,但确实从中得到很多启发,比如视觉皮层的结构,以及在学习信号处理时自然而然产生的一些观点,比如filtering是处理音视频信号的好办法,而卷积是filtering的一种方法.这些经典理念早在上世纪五六十年代就由Hubel和wiesel等人在神经科学领域提出,日本科学家Fukushima在上世纪80年代对其也有贡献.

  我从这些观点和成果中受到启发,我发现可以利用反向传播训练神经网络来复现这些现象.卷积网络的理念是,世界上的物体是由各个部分构成的,各个部分由motif构成,而motif是由材质和边缘的基本组合,边缘是由像素的分布构成的.如果一个层级系统能够检测到有用的像素组合,再依次到边缘/motif/最后到物体的各个部分,这就是一个目标识别系统.

  层级表示不仅适用于视觉目标,也适用于语音/文本等自然信号.我们可以使用卷积网络识别面部/识别路上的行人.

 

  在上世纪90年代到2010年左右,出现了一段所谓"AI寒冬',但我们没有停下脚步,在人脸识别/行人识别,将机器学习用在机器人技术上,使用卷积网络标记整个图像,图像中的每个像素都会标记为"能'或"不能'被机器人穿越,而且数据收集是自动的,无需手动标记.

 

  几年之后,我们使用类似的系统完成目标分割任务,整个系统可以实现VGA实时部署,对图像上的每个像素进行分割.这个系统可以检测行人/道路/树木,但当时这个结果并未马上得到计算机社群的认可.

 

  最近的视觉识别系统的一个范例是Facebook的"全景特征金字塔网络',可以通过多层路径提取图像特征,由多层路径特征生成输出图像,其中包含图像中全部实例和目标的掩模,并输出分类结果,告诉您图像中目标的分类信息.不仅是目标本身的分类,还包括背景/材质等分类,比如草地/沙地/树林等.可以想象,这种系统对于自动驾驶会很有用.

   医疗成像及图像分割

 

  卷积网络对于医学成像应用也很有帮助.与上面提到的网络类似,它也分为解码器部分,负责提取图像特征,另一部分负责生成输出图像,对其进行分割.

   神经网络机器翻译

 

  在翻译应用上,采用了许多网络架构上的创新,如自注意力机制/轻量卷积/动态卷积等,实现基于语境的动态卷积网络内核.在ICML2019上的最新机器翻译卷积网络模型,其参数数量达到200M至300M,WMT数据集上的BLEU得分:英文-德语,英文-法语,汉语-英文.

   自动驾驶系统

 

   游戏

  无模型强化学习很适合游戏领域应用.现在强化学习领域的一大问题就是数据的缺乏,使用强化学习训练系统需要大量的重复试验和试错,要达到人类训练15分钟的水平,机器需要大概80小时的实时游戏,对于围棋来说,要达到超人的水平,机器需要完成大约2000万盘的自对弈.Deepmind最近的<星际争霸2>AI则完成了大约200年的游戏时间.

 

  这种海量重复试验的方法在现实中显然不可行,如果您想教一个机器人抓取目标,或者教一台自动驾驶车学会驾驶,如此多的重复次数是不行的.纯粹的强化学习只能适用于虚拟世界,那里的尝试速度要远远快于现实世界.

 

  这就引出了一个问题:为什么人和动物的学习速度这么快?

  和自动驾驶系统不同,我们能够建立直觉上真实的模型,所以不会把车开下悬崖.这是我们掌握的内部模型,那么我们是怎么学习这个模型的,怎样让机器学会这个模型?基本上是基于观察学会的.

 

  动物身上也存在类似的机制.预测是智能的不可或缺的组成部分,当实际情况和预测出现差异时,实际上就是学习的过程.

 

  上图显示了婴儿学习早期概念和语言的过程.婴儿基本上是通过观察学习这个世界的,但其中也有一小部分是通过交流.

 

   自监督学习:预测与重建

  以视频内容预测为例,给定一段视频数据,从其中一段视频内容预测另外一段空白处的内容.自监督学习的典型场景是,事先不公布要空出哪一段内容,实际上根本不用真的留出空白,只是让系统根据一些限制条件来对输入进行重建.系统只通过观察来完成任务,无需外部交互,学习效率更高.

 

  机器在学习过程中被输入了多少信息?对于纯强化学习而言,获得了一些样本的部分碎片信息(就像蛋糕上的樱桃).对于监督学习,每个样本获得10-10000bit信息(蛋糕表面的冰层),对于半监督学习,每个样本可获得数百万bit的信息(整个蛋糕内部).

 

   自监督学习的必要性

  机器学习的未来在与自监督和半监督学习,而非监督学习和纯强化学习.自监督学习就像填空,在NLP任务上表现很好(实际上是预测句子中缺失的单词),但在图像识别和理解任务上就表现一般.

 

  为什么?因为这世界并不全是可预测的.对于视频预测任务,结果可能有多重可能,训练系统做出唯一一种预测的结果往往会得到唯一"模糊'的结果,即所有未来结果的"平均'.这并不是理想的预测.

 

  我们需要利用隐变量来处理不确定性.训练样本只是整个可能的输出集合的表示.

 

  几百年以来,理论的提出往往伴随着之后的伟大发明和创造.深度学习和智能理论在未来会带来什么?值得我们拭目以待.

  全面认识深度学习巨头

  以下是ACM对Hinton和LeCun的官方介绍,读者若已熟悉,可跳过本部分.

   Geoffrey Hinton

 

  Geoffrey Hinton是谷歌副总裁兼Engineering Fellow,向量研究所首席科学顾问/多伦多大学名誉教授.Hinton在剑桥大学获得实验心理学学士学位,在爱丁堡大学获得人工智能博士学位.他是CIFAR的神经计算和自适应感知(后来的"机器和大脑学习')项目的创始主任.

  Hinton曾获加拿大最高荣誉勋章,英国皇家学会会员,美国国家工程院外籍院士,国际人工智能联合会议(IJCAI)卓越研究奖,NSERC Herzberg金牌奖,及IEEE James Clerk Maxwell金牌.他还被"连线'杂志选为"2016年度最具影响力100人'之一,并被彭博社选为2017年"改变全球商业格局的50人'之一.

   Yann LeCun

 

  Yann LeCun是纽约大学Courant数学科学研究所的Silver教授,Facebook的副总裁兼首席AI科学家.他在英国电子技术与电子学院(ESIEE)获得高等英文学士学位,在玛丽·居里·皮埃尔大学获计算机科学博士学位.

  LeCun是美国国家工程院院士,来自墨西哥IPN和洛桑联邦理工学院(EPFL)的荣誉博士,宾夕法尼亚大学Pender奖得主,埃因霍温技术大学和飞利浦实验室Holst奖章获得者,诺基亚-贝尔实验室Shannon Luminary奖/IEEE PAMI杰出研究员奖/以及IEEE神经网络先锋奖.

  他被<连线>杂志选为"2016最具影响力人物100人之一'以及"25位创造商业未来的天才'之一.LeCun是纽约大学数据科学中心的创始主任,也是CIFAR学习机器和脑力项目的负责人(与Yoshua Bengio共同担任). 此外,LeCun还是人工智能合作伙伴关系委员会的联合创始人和前成员之一,该公司是研究AI的社会后果的企业和非营利组织的联合体.

 

 

更多科研论文服务,动动手指,请戳 论文润色投稿期刊推荐论文翻译润色论文指导及修改论文预审

语言不过关被拒?美国EditSprings--专业英语论文润色翻译修改服务专家帮您!

上一篇:【严正申明】关于我公司网站被恶意抄袭严正声明

下一篇:艾德思:浅谈期刊论文引文行为的不确定性因素

特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

凡注明来源为“EditSprings”的论文,如需转载,请注明来源EditSprings并附上论文链接。

最热论文