你好,游客 登录 注册 发布搜索
背景:
阅读新闻

75页PPT干货教你如何预测学习替代无监督学习

[日期:2016-12-09] 来源:新智元  作者: [字体: ]

1 新智元编译

来源:Medium、Yann LeCun

作者:Carlos E. Perez、Yann LeCun

编译:王楠、刘小芹

 

  【新智元导读】日前,Facebook AI 实验室负责人、纽约年夜学教授 Yann LeCun 受邀在今年的 NIPS 年夜会揭橥主旨演讲,畅谈深度学习最近技术进展。值得注意的是,LeCun 试图转变人们对 AI 的通常分类(即无监督学习、监督学习和增强学习),他在演讲中用“预测学习”替代“无监督学习”,因为预测学习要求机器不仅能在没有人类监督的情况下学习,并且能够学习世界的预测模型。

  此外,LeCun 还引入了使用 RNN 实体从文本中推断世界的状态等新的技术,结合深度学习领域最新成长,比如 TorchCraft、使用对抗训练让系统预测视频接下来的内容。【在新智元微信"大众号回复1207,可下载全部75页PPT】

  要了解今年 NIPS 的盛况,先上一张图:

  

  2016 年,作为学界顶级盛会的 NIPS 共收到投稿跨越 2500 篇,最终接收了 568 篇——保守估计接收率 22.7%。这个论文接收率并不算那么低(相较其他顶会),不过,获得口头展示机会的名副其实凤毛麟角。

  再看参会人数及其近年来的增长趋势(上图右)——尤其是近两年,用“直线上升”形容毫不夸张。如果这个显示的是某个国度的 GDP,估计领导人绝对合不拢嘴了。

  作为 2016 年 NIPS 年夜会受邀揭橥主旨演讲的第一人,纽约年夜学教授、Facebook 人工智能实验室(FAIR)主管 Yann LeCunn 的演讲备受瞩目:

  

  (文/Carlos E. Perez)Yann LeCun 今年演讲中多次提到这样一个类比:

  如果把“智能”(intelligence)比作一个蛋糕,那么无监督学习就是蛋糕本体,监督学习是蛋糕上的糖霜,而增强学习是蛋糕上的樱桃。我们知道如何获得糖霜和樱桃,但不知道怎样做蛋糕。

  

  在 NIPS 2016 上,LeCun 开始使用“预测学习”(predictive learning)这个词取代“无监督学习”(unsupervised learning)。LeCun 在演讲中说:

  我们缺乏的一个症结要素是预测(或无监督)学习:机器具有模拟环境,预测未来的可能性,以及通过不雅察和介入理解世界如何运作的能力。

  这是一个有趣的变更,注解 LeCun 的“做蛋糕”不雅点有了一些微妙的变更。在 LeCun 看来,需要建立基础,然后能力让 AI 加速进步。换句话说,在我们能够建立“预测基础层”(predictive foundational layer)之前,试图通过增加更多的内存、知识库、协作智能体等构建当前的监督学习将会十分困难。

  在 NIPS 年夜会上,他贴出了下面这张 PPT:

  

  1. 机器需要学习/理解世界的运转方法

  物理世界、数字世界、人

  需要掌握常识

  2. 机器需要学会年夜量的配景知识

  通过不雅察或者行动

  3.机器需要感知世界的变更

  以作出精准的预测和计划

  4.机器需要更新并记住对世界状态的预测

  存眷重年夜事件、记住相关事件

  5. 机器需要会推理和计划

  预测哪些行动会带来预期的转变

  智能&常识=感知+预测模型+记忆+推理&计划

  LeCun 的演讲强调了我们面前的艰巨任务。

  预测学习要求机器不仅能在没有人类监督的情况下学习,并且能够学习世界的预测模型。这点异常重要,这也是为什么 LeCun 试图转变人们对 AI 的通常分类(即无监督学习、监督学习和增强学习)。

  以下为 Yann LeCun NIPS 2016 演讲实录——《预测学习》

  

  很愉快跟年夜家分享,今天我演讲的主题是“预测学习”。

  什么是预测学习?首先,我们还是要先从感知机讲起。从下面的照片中可以看见年轻的 Geoff Hinton,他其时还是 CMU 的研究员。Tarry Knoafski、Jay McLaren(他其时也在CMU),在 McLaren 旁边是 Michael Jordan。照片上的这些人现在基本都已经造诣了一番年夜事业。还有我,我就在那里。

  

  其时是段美好的时间。那时候是人们第一次开始提起 Backpropagation,Backpro 这个概念在其时真的超等火,虽然论文还没有揭橥出来——照照片的时候还是 1986 年7月,在章节中涉及 BP 算法的书后来才出版,相关论文也是一年后才在 Nature 揭橥。

  

  我现在展示的这张照片显示的是感知机——我们都忘记了 20 世纪 50 年代的感知机,但感知机可以说是所有神经网络的基础。感知机实际上并不是一个计算机法度模范,而是一台模拟计算机(analog computer)。与神经元模型不合,感知器中的权值是通过训练获得的。你只要一按键,当系统产生毛病时,所有的模块都邑“死曩昔”。

  我们都知道监督学习是什么了,而我之所以要提监督学习,是因为后面我们会涉及为什么它有局限。在机器学习中,我们将样本——比如汽车或者飞机的图像,输入有很多可调参数的机器里——这实际上是一个类比。当输入的是一辆车时,红灯就会亮,当输入是飞机时就打开绿灯。然后我们就一直调剂参数。通过增加梯度,我们可以调剂亮绿灯的次数。

  

  深度学习,从监督学习开始

  

  这张 Slide 年夜家都看过很多次了,用于物体识其余深度卷积网络。监督学习实际上就是学会条理化的表征。例如下面用卷积网络做自动驾驶,这是当初 DARPA 挑战赛做的机器人。

  

  

  使用卷积网络生成图说、进行图像词义朋分

  

  使用卷积网络进行的自动驾驶

  

  

  多层神经网络:

  一个单位包含多层神经网络

  一个单位计算其获得的输入的一部分加权和

  加权和会通过一个非线性函数

  学习算法会转变权重

  人工智能成长所面临的困境

  

  

  1. 机器需要学习/理解世界的运转方法

  物理世界、数字世界、人

  需要掌握常识

  2. 机器需要学会年夜量的配景知识

  通过不雅察或者行动

  3.机器需要感知世界的变更

  以作出精准的预测和计划

  4.机器需要更新并记住对世界状态的预测

  存眷重年夜事件、记住相关事件

  5. 机器需要会推理和计划

  预测哪些行动会带来预期的转变

  智能&常识=感知+预测模型+记忆+推理&计划

  

  什么是常识?代词“它”的指代对象,动作的执行者。机器该怎么理解。

  

  预测学习/无监督学习的重要性

  

  训练年夜型学习机器所要求的样本的数量,取决于我们让它预测的信息量

  我们向机器提问的信息越多,所需的样本数量越年夜

  年夜脑有 10^14 的神经突触,而我们的生命只有 10^9 秒。我们拥有的参数的量远超数据的量。这就激发了一种想法,即由于知觉输入(包含本体感到)是唯一能每秒获得 10^5 个维度的约束的处所,我们必须要做很多的无监督学习。

  预测人类提供的标记是不足够的

  预测一个价值函数也不足够

  

  如果把“智能”(intelligence)比作一个蛋糕,那么无监督学习就是蛋糕本体,监督学习是蛋糕上的糖霜,而增强学习是蛋糕上的樱桃。我们知道如何获得糖霜和樱桃,但不知道怎样做蛋糕。

  

  在 FAIR 使用强化学习训练系统玩游戏的例子

  

  顺便给方才开源的 TorchCraft打一下告白

  

  

  有趣的是,在LeCun讲解 Sutton例子时,Sutton 本人就在下面听(最后排最右边)。来源:Twitter

  

  经典的基于模型的优化控制

  用初始控制序列模拟世界

  调剂控制序列,通过梯度下降优化对象

  在上世纪 50 年代,通过控制论,创造了 BP 算法

  智能系统的架构

  

  

  AI 系统 = 会学习的智能体 + 弗成变对象

  

  AI 系统 = 会预测 + 会计划= 能够进行推理

  

  我们需要的是基于模型的强化学习系统

  智能体的症结在于能够预测

  要进行预测,就必须对世界进行模拟,至少对物体功能进行一定水平上的预测

  让机器学习会预测世界的模型

  

  

  学习物理:物理网络

  

  

  从文本中推断世界的状态:使用实体RNN

  

  

  具有记忆模块的增强神经网络

  递归神经网络不克不及久长地记忆,需要一个额外的记忆模块

  递归网络的记忆时间不长:年夜脑皮层能维持的记忆时间只有 20 秒

  我们需要“海马体”(一个零丁的记忆模块)

  LSTM [Hochreiter 1997]

  记忆网络 [Weston et 2014] (FAIR),联系关系记忆

  Stack RNN [Joulin & Mikolov 2014] (FAIR)

  神经图灵机 [Graves 2014]

  可微分神经计算机 [Graves 2016]

  

  差分记忆

  

  记忆增强递归网络

  

  

  

  实体RNN

  坚持对世界当前现状的估计

  每个模块都是一个带有“记忆”的递归网络

  每次输入都当值记忆单位更新

  

  无监督学习

  

  

  基于能量的非监督学习,能量函数

  

  

  

  塑造能量函数的七年夜策略

  1. 构建机器使低能物质的容量恒定

  2. 使数据点能量下降,其余上升

  3. 使数据点能量下降,选定位置能量上升

  4. 使梯度最小,数据点周围曲率最年夜

  5. 训练动态系统

  6. 利用正则化项限制低能量的空间容量

  7. 假如 E(Y) = IIY - G(Y)II^2,使 G(Y) 尽量“恒定”

  

  

  对抗训练

  

  

  

  基于能量的非监督学习

  

  对抗训练:可训练的对象函数

  

  

  

  

  

  在图像识别上的应用

  

  

  

  

  

  使用对抗训练,对视频内容进行预测

  

  

  

  人类的年夜脑是“预测机器”

  我们能够把机器训练得能够预测未来吗?

  在这方面,使用“对抗训练”取得了一些进展

  然则,离胜利或者说完善的解决计划,还要十分遥远的距离

  

  使用对抗网络进行视频内容预测实例

  

  

  【在新智元微信"大众号回复1207,可下载全部75页PPT】

  编译来源:

  1. https://medium.com/intuitionmachine/predictive-learning-is-the-key-to-deep-learning-acceleration-93e063195fd0#.7ia0cj6ip

  2. LeCun NIPS 2016 演讲

  责编:WF

收藏 推荐 打印 | 录入:admin | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款