你好,游客 登录
背景:
阅读新闻

重磅 | 英特尔数据中心事业部副总裁Naveen Rao:如何加速人工智能的 “芯”变革

[日期:2016-12-01] 来源:雷锋网   作者: [字体: ]

今天上午,英特尔在北京举办了释放IA,原力拥抱AI时代的年度论坛,英特尔全球副总裁兼中国区总裁杨旭;英特尔数据中心事业部副总裁、数据中心解决方案部总经理Jason Waxman;英特尔数据中心事业部副总裁,人工智能解决方案部总经理Naveen Rao;英特尔公司软件与服务事业部副总裁、开发者及产品部总经理William(Bill) Savage;英特尔中国研究院院长宋继强分别做了《AI在中国》;《英特尔,让人工智能加速未来变革》;《人工智能的“芯“突破》;《加速人工智能普及和应用》;《技术深究-英特尔架构和人工智能》的主题演讲。

雷锋网(公众号:雷锋网)率先摘取了人工智能解决方案部总经理Naveen Rao先生主题演讲的精华(其它主题演讲精华将在后续专访文中详细呈现),来和广大开发者一起探讨人工智能面对的技术挑战和应对之道,并希望携手大家一起一起抓住人工智能时代的巨大机遇。

----------------------------------------------------------------------------------------------------------

大家早上好,非常高兴大家能够出席今天的AI Day,很抱歉我并不懂中文,但是希望大家能够仔细的听。我的名字叫做Naveen Rao,我是英特尔公司数据中心事业部副总裁,同时也是Nervana系统的前CEO,也就是由英特尔所并购的这家公司,刚才我的同事Jason Waxman也提到。我们所做的事情可以增加英特尔半导体的技术能力,也正处在开发这个市场的前沿,这是非常关键的,我们希望通过技术改变全世界。

在整个行业当中这是非常激动人心的时代,因为现在技术的发展日新月异,我们看到大量新的创新和新的改革。我认为有一些技术已经存在有几年了,现在已经开始开拓新的市场机遇,有新的产品和解决方案的出现。

回顾机器学习

首先让大家了解一下什么是机器学习。机器学习有不同的理念和观点,也就是指从数据当中学习的方法,它能够构建这些数据,通过数据改进自己的性能,这是非常宽泛的一个定义,当然这个概念存在已经有很久了,在学术界当中,包括如何从数据当中进行系统化和架构的学习等。

直到最近,我们知道更多的数据被生活和工作当中产生,因此就推动了机器学习的需要。这里先跟大家分享一下机器学习的三种不同类型,我不能说只有这三种类型,但是让大家稍微了解一下机器学习的世界。

  • 我们最近经常听到一个的词语叫做监督学习,比如说我有一些图片、标识,这个标识是贴在我的数据上的,比如说一个人的面部识别,这个数据的标识就代表他的名字,这个名字可以联到计算机当中,计算机就可以学习,或者将这种输入的数据,将他的名字和图片连在一起。

  • 另一个词语是非监督学习。通常我们需要用到它的场景,是在很难真正找到具有潜在的、可使用的数据架构,而且前提是你一开始还不了解这个架构的详情。如果说你想学一个语言,你先要听它,被动的学习它这样的语言,了解它的发音,了解它的语音语调,至少要形成一个语言的框架之后才能开始真正学习这个语言。虽然目前这还是机器学习的一个难点,但我们正在不断推动这方面的研究。

  • 非监督学习讲完了之后,开始给大家讲一下强化学习。比如说就像培训你自己家的宠物一样,你是希望它有一个正面的反映,你想要的反映,负面的反映,如果你不想要的反映你就惩罚它,就像你训练你家的狗或者猫一样,这是强化学习的概念。

当然真正的AI不仅仅是这三种类型,不过当下,我们花了大量时间在不断靠近这三个领域。现在让我们的生活、我们的世界更加好也就是机器学习和人工智能的最终目标。

下面给大家举一个例子——非常传统经典的机器学习,我们在过去所学习到的,我们有一定的图片。大家可以看到这是我们其中的一个创始人,我们如何教会机器能够识别人的面孔,也就是说将名字和面孔连接在一起。按照传统方法来说,我要看一下他面部的特点,眼睛和眉毛的宽度和鼻子的长度,这些都是非常关键的辨识特点,通过软件辨识,作为图像的关键点,作为面部特点的函数。最后我们通过不同的分类器,不同的随机森林和集成方法,最终能够辨别出他的名字。我想人类或者是动物能够更好的辨别这个面孔,但是机器需要很多的学习过程,因为它们没有办法直接提取出这些特点。传统的机器学习就是以这种方式进行面部识别的。

我们看一下深度学习,在过去几年当中有非常多的研究方面的突破,也就是说在数据层面提取出特征来进行学习。我们首先要了解特征是什么,这是我们数据的输出,这是数据的输入,告诉我在这个过程当中你提取出来的特征是什么。通过大量的计算能力,这也是为什么在过去花的时间,通过大量数据的学习可能要花几个月、几年的时间,因为之前这个计算的能力是非常受限的。

现在系统的发展更加先进,我们把它叫做端对端的深度学习,它有超过6000万个参数,这6000万个参数就代表着有6000万个不同的培训点,同时这个数据,可以看到它有自己的一些范式,我们可以将这个问题变得简单化。但是在这边我们需要注意的一点,这一点非常重要,我们应该有非常好的数据,非常好的标记,与此同时能够对我们输入的信息作出正确的定义。

所以在过去几年间,信息界发生的一个很大的变化是机器学习正在处理之前人工处理的一些内容,比如说之前有一些自然的图像,我们有1000多个类别,当时的想法是,把这些图像按类别进行分类,看起来非常简单,不知道在座各位有没有做过这样一些工作,这些工作正确率在80%左右,正确率不是特别差,如果看计算机进行分类的话,错误率也没有低很多,如果我们对所有机器进行培训的话,这些受过训练的机器可以达到更高的分类精度。

之后我们为了解决错误率的问题,去应用了神经网络,你会看到在应用神经网络之后语音错误率以及ImageNet错误率得到了进一步下降。我们在这边看到了人类的表现,人类的错误率,其实我们所做的是研究这些错误,我们大概有5%左右的错误率,过去几年间,真正让机器能够打败人类或者打败其他智能的动物还需要几年的时间,但是我们确实已经见证多了一些重大的进步,大家已经有了智能手机,我们说到这些智能系统的时候,我们知道这些智能手机的智能系统是非常好的,可以在大部分情况下帮我们作出正确的选择,因为我们在它上面加入了神经网络,因此我们可以帮他们的正确率得到提高。在Nervana我们也在整个平台上应用了各种各样不同的数据,我们用了自然语言加工,我们用了很多时间序列、金融数据等等,这些都是朝着同样一个方向发展的。

展望机器学习的未来

  • 从我们的大脑中寻求答案

很有趣的一点,英特尔其中一个创始人之一曾经说过,“我们通过计算机建模的方式来研究人类大脑是如何工作。”,其实我们或许应该用另外一种方法反其道而行之。我们已经发展到了这样一个阶段,就是为了探索计算机新的发展方向,也就是数据的发展方向,我们可以向我们的大脑寻求答案。

  • 用我们的芯片打造一个神经元

这也是Nervana所使用的方向之一,我自己本身是学计算机出身的,我自己也对神经系统非常感兴趣,我希望我们能够从大脑中获取一些概念,能够从大脑中获取一些新的想法,把它应用到我们的计算机工程中去。我们不知道如何去真正打造一个生物上的神经元,但是我们可以用我们的芯片打造一个神经元。我们可以把我们大脑中的模式,一种数学模型的方式提取出来,然后应用到计算机模型当中去。我们可以在其中加入一些生物的元素,然后建立起这样一个模型,当然这个部分是非常复杂的,然后我们把它转化为模型描述语言,转化为原语或者编译器,之后转化为针对工作负载的优化硬件,这就是我们的工作方向。

  • 重视计算力的价值

前面Jason Waxman之前也提到了,到2020年,AI计算量就会增长到12倍,我们对硬件也作出了投资,这是从行业来说更加重要的投资原因,到2020年的时候,我们数据中大部分都是由AI驱动的,我们说到很多数据的价值,现在全世界有海量的数据,全世界每天都会产生巨大的数据,每一个星球上生活的孩子,不管是成人,他们如果用自己的人脑进行计算的话,要用30多年的时候才会产生这样的数据。但是在未来,我们AI的计算量将增加到12倍,我们不再需要人工帮我们进行这样数据的计算,我们都会变成自动的计算。

关于英特尔人工智能咨询委员会

我非常开心的宣布,我们成立了非常了不起的英特尔人工智能咨询委员会,这些都是业界的领袖,可以帮助我们进一步制定AI的战略,并且帮助我们进一步研究神经网络。

  • Bruno Olshausen来自加州伯克利的,他是第一位咨询员,从我们公司建立的开始就跟他建立了很好的合作关系。

  • 之后是Ron Dror,他来自于斯坦福大学,他致力于研究超级计算机,他所研究的超级计算机模型可以用作药物计算的发展。

  • 还有一位是Jan Rabaey,加州大学伯克利分校的,他也是专注于研究我们整个神经网络架构的,并且和我们整个行业有很好的练习。

  • Yoshua BenGio是我们深度学习的三大创始人之一,他们也是我们最后20几年间所作出创新的先锋者。帮助我们能够把深度神经元打造得更加有用,在一开始的时候深度神经系统被人们认为并没有那么有用,但是现在让人们相信这是非常有效的技术。

所以我们说AI可以从各种方向来被我们进行应用,现在AI是一个非常热门的话题,但我们有不同的使用AI的方式,有一些是可以把它用到机器学习中去,有一些用到推理系统中,比如我们的Saffron系统。另外我们两边,也就是机器学习和推理系统可以进行互动,另外我们可以有四种不同的实施方法,可以为用户提供满足他需求的方法。不管是深度学习、经典机器的学习,还是基于记忆或者是基于逻辑的学习,我们为用户提供的是最适合他们的最好的解决方案。

关于英特尔Nervana

  • XEON

在这边我列出了英特尔Nervana一部分产品组合,首先是我们的XEON,这是我们比较通用的解决方案和处理器。另外,我们的软件解决方案也可以在所有这些处理器上进行工作,之后就是至强融核,它非常适合高性能和通用机器学习。

  • Skylake

另外,我们还有FPGA,来自Nervana的一个技术。我们刚刚也发布了Skylake,是我们最新版本的至强,这一个版本也已经进行了进一步的优化,它可以帮我们将性能提高到的8倍,并且也是针对能效进行的优化。

  • 至强融核

至强融核也是令大家非常兴奋的一个部分,它也和我们深度学习有着非常深的融汇,它的主要目的就是能够处理多重的工作负荷,所以在软件部分我们也发现了有各种各样不同的创新,通过应用至强融核,可以讲深度学习性能提高到四倍,与此同时性能也非常卓越。

  • KNIGHTS MLL

我们还有KNIGHTS MLL,另外再这样的一个已有的平台中,有了它我们就不再收到其它的限制,我们可以自由进行AI或者是机器学习。现在在我们的平台上有非常多的用户案例,但是这些用户案例确实有受到了很多限制,有的时候是被内存所限制,有的时候是被容量所限制,但是现在我们有了至强融核之后,就可以在我们平台上采用更多的实例。

关于AI的应用落地

我认为医疗是AI可以去进行应用的一个非常重要的行业,目前为止我们还并没有非常完善的一些算法,我们也没有一个完整的平台提供给这些医疗服务系统,但是我们也致力于将AI投入到医疗行业中去。比如说MICHAEL.j-FOX,基金会是一个专注于治疗帕金森综合症的一个基金会,我们还共同建立了协作式的癌症云,AI也被应用于新药的发行中去,我们也希望能够宣布我们与Broad Institute共同合作,成立了可拓展的基金中心,我们这个中心需要技术,需要更强的计算能力,更强的技术能力,我们可以为他们提供这样的能力。

通过AI为世界做更好的贡献。这就是我们所说的如何加速人工智能的“芯”变革。

我也非常为我们未来的几年感到兴奋,去看一下AI到底如何被应用,如何发展。非常感谢各位。

收藏 推荐 打印 | 录入:admin | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款