你好,游客 登录
背景:
阅读新闻

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

[日期:2016-10-22] 来源:雷锋网  作者: [字体: ]

  天CNCC 2016在山西太原盛大开幕,开场演讲中,CCF会士、CCF终身成就获得者,中国科学院士、清华大学教授,中国自动化学会、中国计算机学报副主编、2011年获得德国汉堡社会大学自然科学博士学位,2016年获得杰出合作贡献奖的清华大学张钹院士做了人工智能未来展望,后深度学习时代的报告,雷锋网(公众号:雷锋网)为大家精编如下:

  今年是人工智能60周年,如果用人生的起步来衡量的话,已经进入了老年,不过还是有很多人希望人工智能能提供成熟的成果和技术,用来发展产业、发展经济进行科学研究。我今天做的报告,本着这样的原则,关于人工智能的优点,它的成果我要说够,对它的问题我要说透……

  后深度学习的前提-人工智能的春天又来了

  如今人工智能的春天又来了,不过和30年前在日本的那次相比,时间不同、地点不同,主题也不同,这一次是关于人工智能第二个成果,深度学习相关的。

  从知识情报处理到深度学习

  从第五代计算机到类脑计算机

  从大容量知识库到大数据

  从高速符号推理到类脑芯片

  从自然语言理解到感知(机器人)

  我想这一次是不是我们的机会,我们能不能弯道超车还是又一个日本的“五代机”?我的看法是这两个可能性都存在,关键我们怎么做。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  中国有句老话,三十年河东,三十年河西,和30年前比现在有何不同?在我眼里两点,一点是大数据,另一点是概率统计方法(及其理论)。正是因为这两个因素催生了现在的深度学习大潮。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  这个第一点大数据我不用宣传,大家看这个图就行。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  这是在这种启发下建立的神经网络模型,这里神经网络模型里要着重讲下概率统计方法论,两个词,一个贝叶斯推理,一个概率统计,被“引进”了人工智能,并使得人工智能发生了革命性的变化。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  其实很多人不知道,作为对当下人工智能有根本性贡献的概率统计,30年前的它跟现在的它还有很多不同。就是下图的四个里程碑。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  我们现在能够做深度学习,能够在几百万、几千万的参数下做优化,很多人都以为是计算机变快,其实不完全是,而是要归功于概念统计方法的变化。这个变化使得我们现在能把深度学习做好。就是上面四个里程碑的出现,大家一定要注意上面的四个里程碑。

  后来这些里程碑进一步发展成神经网络了,特别是深度学习,使用多层网络进行学习。所谓深度,就是层数比较多。由于用的深度学习方法,把模式识别、图像识别等识别方法的准确度提高了10%,这个事情又引起了深度学习的热。

  为什么呢?因为深度学习解决了一个问题,有相当一部分人,按中文的说法,我们知其然,不知其所以然。我能识别了了马,但我们描述不了马,然后怎么办?那就用深度学习办法:

  它可以解决一些不能完全表述的问题,也就是说“知其然,不知其所以然” 的问题。

  第二个它能针对不确定性的问题,我们不断的变化,我可以不断的再学习,最后,它能解决不能清楚表达的问题。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  另外,深度学习还有一个完全改变传统神经网络的作用,它不仅仅做函数映射,更重要提取那些多层次重复的模式,这是我们讲的真正公共的特征。

  这样使我们做模式识别可以达到很高的水平,后来这些用到模式识别、用到语音,包括用到文本(现在正在做,但是效果不如前面,但也有一些效果),效果都很不错。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  我们可以这么来说,深度学习这个第二个人工智能提供出来的成果,可以帮助我们解决在给定的数据库下,有了可利用的大数据,在感知信息处理上,有可能达到人类的水平甚至超过人类的水平。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  后深度学习时代的人工智能

  后深度学习时代的人工智能,就是想把人工智能从这个狭义的,只能解决一定范围的方法,推广更宽广的范围去,这就是我们现在讲所谓弱人工智能、强人工智能、以及通用人工智能。那我们要做这个工作面临什么挑战?基本上面临三个挑战。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  1)一个是概念统计方法带来的困难。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  我们刚刚说概率统计方法,对人工智能起到了革命性的变化,但是也给人工智能带来极大的挑战,这就是概念统计本身的原因——通过大量的数据,它只能搞出来重复出现的特征,或者是数据中间的统计关联性,它找出来的不是本质上的特征、语义上的特征,它找出来的关系,也不是因果关系,而是关联关系。

  这样做的后果是什么?这里有深度网络做出来的手写数字识别系统,各种各样的2它都能认出来,它声称它这个性能超过了人,识别能力很超前 。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  但你们看,当我们用这种噪声去欺骗它,它可以用99.99%的置信度确认它是2,这在人是不可能发生的,为什么机器会发生,因为机器去认识这种0和1,不是根据0和1本身的性质来认识,而是通过黑白分布的统计性质来认识它,因为这排噪声跟2的统计是一样的,所以才有这样的错误。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  这个在模式识别上没有问题,但如果用到决策就会出现大错,它甚至可以把一块石头看成是马。这个问题非常严重,也就是说深度学习区分的是重复的模型,但大脑区分的是语义的特征,这两种区分有本质的区别,但是有关联。

  2)第二个,生数据带来的问题。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  大数据有很多好处,其实大数据带来很大问题。我们现在大数据跟以前的大数据不一样,大量的数据是生数据。我们看网络上传来的数据都是掺杂了很多噪声,有骗人的,有各种垃圾,这种数据叫生数据。大家看下机器对于生数据和经过加工的数据的鲁棒性表现相对很差,不像人。

  如果我们用右边的图去训练这个神经网络,它能很好认识的猫;如果用左边的图,它很难认识,因为它不知道猫在哪儿。这个吴教授在我们学校做报告的时候,我跟他开玩笑说,你老说你的好成果,不说你的毛病,它为什么能在猫脸与人脸的识别上都识别地非常好,因为它用训练例的时候,是经过精心挑选的,没有背景,没有经过加工。因此,这三样东西的识别都做地非常好。但如果正例、负例都随便取,那它的识别率只有百分之十几,几乎不认识,可见机器跟人的认识形式是很不一样,它非常不鲁棒。

  3)第三个,推广能力,领域迁移。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  这两种方法都是就事论事,都很难推广到不同领域,这就是我们的挑战。我们要从一个弱的智能到通用智能,必须要克服这种困难,如果解决这种困难,目前来讲两个解决办法。

  两个解决办法

  1)一个办法,是人工智能的这两个方法结合起来,因为这两个方法是互补的。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  因为知识驱动跟语义挂钩,是理解;数据驱动是黑箱的方法,不理解,但可以保持从数据中提取模型。那么,前面那个必须有人工做模型,这个地方关键在哪儿?知识驱动方法是用离散的符号表示,深度学习是用高维空间里头的向量,这两个东西我们如果能把它 “沟通” 起来,就会把人工智能推动非常大地一步,现在世界上很多机构也在做这件事。

  2)另外一个办法,就是回到神经网络的本源。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  它是根据神经网络和深度学习借助于人脑神经的工作机制来形成的,人的神经网络有一套办法,这套办法可以借鉴到现在的人工神经网络来,这个工作,世界上也有很多机构在做。

  我们一般把计算方法、深度学习,这两个东西如果能够沟通起来,现在主要做的沟通,这两个方法结合起来就会把人工智能推广大大的应用。

  第二个,我一个文本看起来洋洋洒洒数万页,我为什么知道这里面说的是什么,因为不同局部的,我怎么从局部的信息,把它整合成为全局的认知,这个大脑里面也有一套办法,这里面也涉及到很多研究。如果我们把这些研究移植到这个地方来,把人工智能往前走一步。

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  后深度学习的计算机

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  现在对计算机有这么几个批评,一个你能耗太大,大脑这么大强,才25W,你这一个计算机得多少?另外一个批评,就是对冯诺依曼结构,人脑里面是处理跟存储在一起,你处理跟存储分开,所以对对现在的计算机说三道四。

  我想给大家吃一个定心丸,现代的计算机,我们这个人工智能学会(里的人)还是可以靠它维持很长时间的。首先,现在大家讨论最热的一个是个量子计算、一个是类脑计算。大家不要量子计算一出来现在的计算就不行了,不对了。因为量子算法,目前只有一个算法,它就是因子分解,它可以把指数变成多样性,其它的都没用。其它的,这个计算机即使它出来,只有涉及到因子分解那些算法,它有可能加快,其他它目前还没有算法,算不了。所以量子计算机现在绝对代替不了现在的计算机,就像量子通讯代替不了现在的通讯一样。

  我想给大家吃的第二个定心丸,现在讲的类脑计算,正确地讲叫Brain Insoired Computer,而不是Brain like,大脑你都不知道什么样子,你like谁呢。

  如何建造计算,实现人工智能的两种途径,计算机方式或者学大脑的方式。数据提高了,加一个网络芯片,目前做这个工作的人基本上都得保留一些冯诺依曼架构,不能把冯诺依曼立马取消了。当然也有人直接从右边往左边做,这个是属于基础研究的一类,我们要做的话,这个类脑就需要学科的交叉,我特别推荐要数学、认知科学、心理学、神经科学和语言学等。

  最后说一下,人工智能究竟有多大的希望呢?取决于我们对认知的世界的认知,取决于我们对自身的了解多少?

  

CNCC 2016|清华大学张钹院士起底: 后深度学习时代的人工智能

 

  好了,我们把我们对自身的了解分成两个部分,左边部分是“我们知道we know”,右边那部分叫做“我们不知道”,所以我们把它画大一点。

  我们知道的东西的白色的部分,这就是“我知道的知道”,这就是知其所以然更知其所以然,这就是白盒。

  比如说下国际象棋,就是我们能说清楚,我们知其所以然,又知其所以然,这个用传统的人工智能模型可以解决它。

  我们知道的下方黑色部分,是“我们不知道的知道 wo don't know what we know”。

  这是黑箱,感知就是这样,我们知其所以然,不知其所以然,我们知道那是张三,但我们说不清楚张三鼻子多高眼睛多大,那怎么办,用深度学习。

  从黑箱到白箱中间有个灰色地带,好多问题有的说清楚,有的说不清楚。最典型的就是围棋,围棋有一部分能说清楚,而象棋都能说清楚,马为什么这么走,卒为什么要向前走,围棋绝大部分一颗白子为什么要落在这个地方,大师也说不清楚,他会说这是我的棋感。

  棋感怎么做?这就是AlphaGo的重大贡献,把棋感当作模式识别来做,你看到这个版面以后,你就应该知道怎么落子,这个版面就是一个模式,现在我们现在可以说,大师下围棋下得好,不是因为它太聪明了,而是他的模式识别能力非常强,棋子有一点点变化,他就知道变了,就知道我的策略要变,这个就是用传统模型+深度学习,AlphaGo就是这么做的,蒙特卡洛搜索+深度学习。这就是我们不知道的知道。

  还有蓝色的部分,我们是不知道,但是我们(清楚地)知道我们不知道。

  比如情感、意识等等,这个也能够用深度学习的方法来模拟,至少做到表面模拟。人工智能能做的这么多,这就是人工智能的厉害之处,为什么大家注意到,过去除了白色的部分,其它部分我们都不能做,人工智能能够做这一切。

  但是唯独黄色这部分,我们都不知道我们不知道。

  我们都不知道怎的情况下怎么做呢?脑科学研究覆盖了所有,所以,我们的信息是建立在这个基础上,我们不知道的我们不知道,变成我们知道的我们不知道,再把它变成我们知道的我们知道。传统的算法只占在白色部分的一小部分,也就是说可以建立数学模型的问题,所以,我们为什么说人工智能寄予这么大的希望,原因就在这儿。

  我就说这么多,谢谢大家。

  3人收藏分享:相关文章深度学习CNCC 2016CNCC清华大学张钹CNCC2016

  

 

  干货分享|深度学习零基础进阶第三弹​

 

  干货分享 | 深度学习零基础进阶第二弹

 

  CNCC 2016 | 周志华 57 张 PPT 揭开机器学习本质

 

  深扒:苹果首任AI总监Ruslan Salakhutdinov何究竟是何方神圣?

  文章点评:

  表情 同步到新浪微博提交

宗仁专注AIR(人工智能+机器人)

 

  专注人工智能+机器人报道,经验分享请加微信keatslee8(请注明原因)。 科学的本质是:问一个不恰当的问题,于是走上了通往恰当答案的路。

  发私信当月热门文章

  微信公开课Pro活动链接盗号之说不可信

  春节特辑:在乡下堵车是个啥滋味?

  如果小米推999价位的独轮车 国内小厂怎么办?

  续航1000公里的电动汽车? 他们说可以有!

  这才是神器 自己组装的智能手机!

  NVIDIA揭秘:GPU是如何影响VR体验的?本文作者:程弢2016-10-20 21:12 NVIDIAGPUVR0条评论

  今年4月,VR行业迎来了全球首个VR技术标准——20ms延时、75Hz以上刷新率及1K以上陀螺仪刷新率,这一标准的出炉就意味着VR头盔的游戏规则就此改变了,刚好符合标准的我们称之为低端VR,没达到标准的一律被划到山寨行列。

  这个话题在环球资源移动电子展上的VR/AR/MR生态圈高峰论坛上也展开了讨论,环球资源电子组总裁黄谭伟介绍,VR生态圈需要从硬件、软件和应用三个维度去理解,而硬件就是基础。那么,作为VR头盔的核心部件(重要性高于CPU),上述VR技术标准提到的标准参数都和GPU有着千丝万缕的关系。所以,GPU的优劣是评价VR头盔是否能达到用户需求的关键因素,这似乎已成为一条铁律。

  NVIDIA中国区VR业务开发负责人周为志解释了为何VR会对GPU如此依赖,以及GPU是如何影响VR体验的。

  

NVIDIA揭秘:GPU是如何影响VR体验的?

 

  NVIDIA中国区VR业务开发负责人周为志

  相比传统设备,VR对GPU的要求更高

  “这非常简单,你可以把VR理解成一个特别特别大的显示器放在你面前,而且还是一个环目,VR对于GPU的需求传统游戏的7倍以上,传统游戏有1080P的分辨率和30Hz的刷新率就够了。”

  因此,VR要取得突破,关键就在于GPU的性能能否提升。以延时指标为例,一旦超过20ms,就会造成眩晕感。所以,在屏幕的选择上,VR头盔厂商一般选择的是所以VR头盔一般选择延迟较低的OLED(75Hz刷新率的情况下为13.3ms,而TFT屏幕延时已经高于20ms)。考虑到1K刷新率陀螺仪的延时也有1ms,另外再加上信号处理和传输的时间,留给GPU处理图形的空间并不多。

  所以,相比传统设备,VR对GPU的要求会更苛刻。

  三个衡量标准:工艺制程、架构和软件优化

  如果以“全球VR技术标准”的算,GPU要达到每秒必须达到300M的三角形输出率,而这一数值还只刚刚符合入门级别VR产品的要求。所以普通低端的GPU并不适用于VR头盔,从硬件角度来看,有两个衡量的标准,一个是制程,另一个是架构。

  制程或者说是工艺很好理解,和CPU一样,GPU采用的制程越低就能获取更高的能效。目前,移动端的GPU已经在大规模采用14nm工艺。

  不过,工艺的高低,决定权是在第三方晶圆厂手里的,架构的升级才是最能体现GPU或者显卡厂商价值的地方。近两年,NVIDIA在架构上做了较大的升级,周为志介绍,2015年NVIDIA推出了Maxwell的GPU(目前已经是Pascal了),这比前一代性能升了一倍,而功耗则能降低了一半。据周为志介绍,采用Maxwell架构的GeForce GTX980和GTX1080性能有两倍的提升,并且每瓦性能提升了3倍。

  当然,如果不在硬件的基础上进行软件优化的VR头盔也只是空有一副好皮囊,周为志认为堆叠技术把硬件性能提升到一定的高度之后还要考虑软件的优化。

  “VR开发当中一个非常大的难点就是所有VR头盔的硬件开发商或者VR应用的开发商不懂怎么样对GPU优化、创造效率、降低延迟和特效。”

  这也是为何NVIDIA会专门为VR头盔厂商和应用商开发多款优化工具的原因。针对头盔厂商,NVIDIA目前能提供直接模式(Direct Mode)以及前缓冲渲染(Front Buffer Rendering),这可以较好地提高开发者的效率。针对应用开发商,NVIDIA有多分辨率着色(Multires Shading)和VR SLI两项功能,前者能减少显卡计算资源的浪费,后者可以降低GPU渲染场景耗费的时间。

 

  因此,GPU除了要有工艺、架构上的技术基础,软件优化的优劣也能深刻影响到VR头盔的整体性能和用户体验(包括图形的效果、VR的声音以及触感的体验等),这或许是现在VR生态圈最容易忽视的问题。

收藏 推荐 打印 | 录入:admin | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款