你好,游客 登录
背景:
阅读新闻

深度学习颠覆云计算,亚马逊、微软、谷歌势必与英伟达一决高下

[日期:2017-10-26] 来源:新智元  作者: [字体: ]

【AI WORLD 2017世界人工智能大会倒计时13 天】

最新议程:【致敬程序员节】科大讯飞发布1024计划,10.24亿倾注AI开发者

大会限时 8 折票最后一天!扫描文末二维码进入活动行网站,使用优惠码“1024”,即可尊享大会全部论坛 8 折购票,活动截止至10月27日0点。

2017年11月8日在北京国家会议中心举办的AI World 2017世界人工智能大会特设 AI Cloud 分论坛,IEEE Fellow Chris Rowen、寒武纪科技创始人陈天石、阿里云量子技术首席科学家施尧耘等等多位讲者将围绕AI芯与AI云进行精彩分享并展开深度讨论。,马上参会!

新智元推荐 

来源:云头条

【新智元导读】多位精英CIO、CTO和技术高管组成的福布斯杂志的常设部门Forbes Technology Council 撰文指出,随着市场对针对机器学习优化的计算资源的需求急剧增长,新的进入者有机会提供可与如今的老牌云服务提供商(亚马逊AWS、微软Azure和谷歌云)一较高下的解决方案。

AI World 2017 世界人工智能大会(11月8日,国家会议中心)特设 AI Cloud 分论坛,多位大咖讲者亲临会场,详见文末议程及嘉宾介绍。大会限时 8 折票最后一天!马上参会!

过去这几年涌现出了全新类别的产品,这归功于机器学习和深度学习取得了非凡的进步。仅举几个例子,这些新技术在支持产品推荐、医疗成像中的计算机辅助诊断和自动驾驶汽车。

大多数机器学习和深度学习算法需要的计算资源(硬件、软件、存储和网络)与针对传统应用软件优化的那些计算资源大不一样。因而,随着越来越多的公司开发各自的机器学习/深度学习算法,并将这些算法部署到生产环境,市场对针对机器学习优化的计算资源的需求只会急剧增长,因而让新的进入者有机会提供可与如今的老牌云服务提供商:亚马逊AWS、微软Azure和谷歌云一较高下的解决方案。

三大云服务提供商眼下面临被英伟达、Servers.com和Rescale等新的进入者颠覆的风险

在Mesosphere博客页面上的一篇文章(https://mesosphere.com/blog/smack-stack-new-lamp-stack/)中,爱德华•苏(Edward Hsu)提出了这个观点:Web应用程序现在主要是数据驱动的。因而,SMACK(Spark、Mesos、Akka、Cassandra和Kafka)这一套新的框架(又叫堆栈)势必会取代用来构建基于Web的应用程序的传统LAMP(Linux、Apache、MySQL和PHP)堆栈。在我看来,SMACK将与基于Web的传统框架和谐共存,并将数据馈送给这些传统框架,而不是取代LAMP,毕竟我们仍需要传统框架来呈现外观漂亮的网页,并与手机接口进行交互。

然而,主要观点有着充分的根据。我们需要将马克•安德森(MarcAndreesen)的那句名言“软件在蚕食世界”改成“数据在蚕食世界”。不妨对这个说法细细道来,并介绍由此带来的影响。

硬件

机器学习和深度学习带来的那种颠覆早已从软件堆栈扩大到了芯片、服务器和云服务提供商。这种颠覆根源于这个简单的事实:就机器学习和深度学习而言,GPU是效率比传统CPU高得多的处理器。

就在不久前,解决办法还是为传统服务器添加GPU附加卡。现在我们正处于这样一个时间点:市场对机器学习/深度学习计算的需求非常大,以至于厂商们在纷纷制造针对机器学习/深度学习计算负载优化的专用服务器。

数据中心也正在重新设计架构,以支持机器学习和深度学习耗用的超大量数据。设想一下你在设计自动驾驶汽车的大脑部件。你需要处理成千上万个小时的视频(以及其他诸如GPS、陀螺仪和LIDAR之类的信号)来训练算法。路面上行驶的一辆特斯拉汽车在1秒内记录的数据量比Facebook上一则推文或一个帖子的数据量多100万倍。

因此,机器学习/深度学习数据中心不仅需要海量的存储空间,还需要极高的带宽。

软件

软件方面来得还要复杂。转移数据和管理计算任务的执行需要一套新的基础设施堆栈,通常使用专门针对机器学习的框架,比如Tensorflow(最初由谷歌开发)或PyTorch(最初在Facebook开发)。此外,开源代码库(pandas、scikit-learn和matplotlib)用于实现模型(比如神经网络和数据显示)。这些模型库之所以至关重要,是由于它们已经过了优化,不仅就算法研究而言易于使用,还为用于生产环境提供了高性能。

最后,每家厂商都为特定的使用场合提供了完整的构建模块。比如说,亚马逊Lex、谷歌Cloud Speech和微软Bing Speech提供了语音识别,甚至可以识别意图。各自都有自己的API和独特的行为,这使得从一家厂商迁移到另一家厂商很耗费时间。

新的进入者

除了数年来提供GPU加速实例的三大云服务提供商(亚马逊AWS、微软Azure和谷歌云)外,现在还出现了针对机器学习优化的新产品:

  • 英伟达最近推出了一整套“专用的AI超级计算机”服务器,名为DGX系统。英伟达已经是GPU市场的头号提供商,计算机显示离不开显卡,而显卡离不开GPU。

  • Servers.com提供的Prisma Cloud配备针对GPU优化的专用服务器。

  • Rescale是专注于高性能计算(HPC)的小众云服务提供商之一,它刚刚宣布推出搭载GPU的最新一代服务器和高带宽互连技术,旨在搭建高性能多节点集群。

三大云服务提供商眼下面临被英伟达、Servers.com和Rescale等新的进入者颠覆的风险。由于算法领域的创新和计算效率提高,机器学习/深度学习方面的创新仍在高歌猛进。这就形成了一场小规模的“军备竞赛”:最终用户不断寻找可以提供那个额外优势的提供商。

一方面,最终用户在提供最佳软硬件计算环境的这场军备竞赛中获得了巨大好处。另一方面,最终用户又需要随时警惕,密切关注最新的产品。而更重要的是,将机器学习/深度学习产品部署到生产环境时,首席执行官和首席技术官需要挑选今后两到五年会保持优势的获胜者,或挑选至少未来的幸存者。而这并非易事。

我们会在未来的文章中更深入地探究这两个话题,敬请关注。

* * *

11月8日, AI World 2017 世界人工智能大会将特设 AI Cloud 分论坛,IEEE Fellow Chris Rowen 和寒武纪科技创始人陈天石领衔的重磅嘉宾阵容将围绕AI芯与AI云进行精彩分享并展开深度讨论。敬请期待! 

AI Cloud 论坛议程如下:

讲者及演讲概要:

Chris Rowen IEEE Fellow,硅谷知名企业家

演讲题目:Vision,innovation and the deep learning explosion 

演讲大纲:摄像头的广泛应用不仅影响了视频流和相关应用程序的数量,而且还根本改变了成像在技术、商业和社会中的作用。这一演讲讨论了一些最重要的变化,如摄像头成本降低,如一些摄像头系统系统被设计和部署为仅用于计算机视觉任务,如摄像头密度猛增,又如机器学习方法取代了传统的计算模型。特别是,神经网络正在推动新一轮的创新浪潮,并使初创公司从现有的监控、机器人、人机界面和自动驾驶流中获得更多的洞察力和价值。全球各地创业公司所涉及的应用领域范围之广告诉我们,计算机视觉将带来怎样巨大的变化。作为研究视觉初创企业的副产品,我们可以为深度学习时代的初创企业找到有效的成功公式。

Chris Rowen是一位著名的硅谷企业家和技术专家。他目前是Cognite Venture的CEO,斯坦福SystemX联盟顾问,Cadence设计系统的顾问。他正在开发认知计算领域新的创业企业。他曾担任Cadence IP集团首席技术官,在那里他带领团队为移动、汽车、基础设施、深度学习和物联网系统的高级应用开发新的处理器和内存。Chris在1997年创建了Tensilica公司并担任CEO,开发可扩展处理器,成为领先的嵌入式架构之一,是超过225家芯片和系统公司的许可证持有者,每年共出货超过40亿个内核。后来,Tensilica被Cadence收购,Chris也随之加入Cadence。创立Tensilica之前,他曾任Synopsys设计再利用集团副总裁兼总经理。Chris还是开发RISC架构的先驱,并参与成立了MIPS计算机系统公司,担任微处理器开发副总裁。他拥有斯坦福大学电气工程硕士和博士学位,哈佛大学物理学学士学位。他拥有40多项美国和国际专利。他在2015年被评为IEEE Fellow,致力于微处理器技术的开发工作。

陈天石寒武纪科技创始人&CEO

演讲题目:寒武纪@终端,但开风气不为师

陈天石,寒武纪科技创始人&CEO,中国科学院计算技术研究所研究员、博导,长期从事处理器架构和人工智能交叉领域的产品研发和基础研究,是寒武纪系列商用智能处理器的奠基人之一,曾获中国计算机学会科学技术一等奖,入选国家自然科学基金委员会“优青”。陈天石2005年于中国科学技术大学少年班获理学学士,2010年于中国科学技术大学计算机学院获工学博士,攻读博士学位期间的工作曾获中国计算机学会优秀博士论文奖、中国科学院优秀博士论文奖、全国百篇优秀博士学位论文提名、中国科学院院长奖。

胡雷钧,浪潮集团副总裁,高效能服务器和存储技术国家重点实验室副主任

演讲题目:AI计算挑战与应对

演讲大纲:近年来计算能力的发展为大规模系统的应用提供了可能。在未来,计算能力对AI技术的发展仍旧至关重要,这体现为两个事实:

一、在目前亿级计算机的计算能力下,若要用由120 万张图片组成的数据集训练一个ResNet,需要进行2200 亿次的浮点操作(即22 Exaflops),耗时41 天,1Exaflops 每秒的计算机预计在未来五年出现。

二、目前深度学习大部分是有监督学习,训练复杂度相比无监督学习要小。无监督学习所涉及到的网络深度、节点数量、层与层之间的连接、训练数据都在随时变化。在这些变化之下,系统所需的计算规模将是现在的100 倍。更进一步地,接近人脑的通用人工智能的学习模型是一个层次式的稀疏结构,每一个节点向下链接的又是一个层次式的稀疏结构。在摩尔定律的约束下,目前还看不到人脑级运算能够实现的具体时间节点。

因此,浪潮认为,未来对计算能力的需求在人工智能方向上依然很强烈,且看上去没有上限。AI计算平台会遇到很多瓶颈,如数据的瓶颈、计算能力的瓶颈、延迟的瓶颈、通信能力的瓶颈。浪潮在其中看到了几个核心问题。第一,处理单元能以多快的速度读取到它需要处理的数据;第二,每次处理完成后能以多快的速度交换数据,这是通讯问题;第三,在单位的空间内能集成多少计算能力,这是约束着一个计算系统能够达到的最大规模,也是约束着模型训练的最大速度的问题。

胡雷钧,浪潮集团副总裁,高效能服务器和存储技术国家重点实验室副主任。国家863计划高端容错计算机总体专家组专家,主持和参与863、973、支撑计划等课题11项,研制出系列服务器产品,打破多项国际性能评测世界纪录,推动产业技术进步。获国家科技进步奖3项,省部科技进步奖8项,信息产业重大技术发明1项,申请发明专利39项,发表论文12篇。国务院特殊津专家。

詹克团比特大陆CEO

演讲题目:AI驱动的又一个星球级的计算

演讲大纲:深度学习已经在照片分类、智能视频分析、广告推荐、语音识别、机器翻译等诸多领域表现出非常优异的性能,由此而带来的exa-scale (planet scale) Flops的计算需求是对集成电路产业和计算机技术的巨大挑战,同时也开启了一个全新的高性能计算市场。今天,大大小小的诸多公司已经积极地参与到这个市场,GPU、FPGA和ASIC各显身手。本报告分析了新的exa-scale计算的挑战与机会,同时报告了比特大陆科技提供的产品和服务。

詹克团,1979年出生,中国科学院微电子研究所工学硕士。在创办比特大陆(BITMAIN)之前曾任清华大学信息技术研究院研发工程师,北京数字太和科技公司研发总监。2013年创办比特大陆,任公司董事和CEO,主要负责企业经营管理、企业战略、技术研发、生产管理。

施尧耘阿里云量子技术首席科学家

演讲题目:量子智能

演讲大纲:人类智能是经典的还是量子的?如果是经典的话,基于量子信息技术的智能比人类智能强多少?当大规模量子计算机诞生时,这个差距又意味着什么呢?我将和大家一起讨论量子信息技术对智能的意义。

施尧耘,1997 年本科毕业于北京大学计算机科学与技术系,随后在美国普林斯顿大学计算机系师从“图灵奖”得主姚期智院士研究量子信息科学,并于2001年获得博士学位。在加州理工学院量子信息研究所短暂的博士后研究后,他赴美国密西根大学电子与计算机系执教、研究,历任助理教授、副教授、正教授。施教授的研究涉及量子信息科学的多个方向,比如量子计算复杂度、量子系统的经典模拟、量子密码学等。他的研究成果包括多个相应方向中最具代表性的工作;比如在Device-Independent量子密码学中取得了被认为突破性的进展。2017年6月,施尧耘入职阿里巴巴集团,出任阿里云首席量子技术科学家,筹建地处杭州、北京、西雅图的阿里耘量子实验室(AQL)。同时,施教授正在协助CTO张建锋筹划全面提升阿里巴巴的研究力量,并于近日代表阿里巴巴出任浙江省之江实验室副主任。

谢源加州大学圣芭芭拉分校电机与计算机工程系教授

演讲题目:AI 时代的计算机体系结构

演讲大纲:AI 正在改变我们实施应用的方式。硬件的进步使 AI 和大数据机器学习成为可能。

AI 和 ML 在过去十年间取得了重大进展。这种进步在很大程度上受到数据增长和计算力显著提高的推动。

大规模机器学习应用激发了从存储系统到专用硬件(如 GPU 和 TPU )的设计,因为许多 ML 核具有相对规则的结构,适合硬件专用化。在这一演讲中,我将简要介绍 AI 应用中的体系结构创新,并为大家概括性地梳理 AI 应用的各种硬件加速器。 我们也将讨论未来可能的方向,如用于 ML 加速器的内存内(in-memory computin)计算。

谢源教授于1997 年获得清华大学电子工程系学士学位,于1999年和2002年获得普林斯顿大学电机工程系硕士和博士学位。于2003年加入宾夕法尼亚州州立大学(Pennsylvania State University)计算机系,于2008年获得终身教职。2012年提升正教授。2014年他转入加州大学圣芭芭拉分校电机与计算机工程系(ECE)正教授。他同时也是北京大学的兼职教授和台湾新竹清华大学的客座教授。

谢源教授的主要研究领域包括VLSI设计,电子设计自动化,计算机架构和嵌入式系统设计。他目前的研究项目包括新型内存架构,互连架构和异构系统架构。最近的研究项目侧重于技术驱动和应用驱动的设计/架构创新。技术驱动的研究项目包括新兴存储器技术和3D集成电路的EDA /架构,硬件安全性和CPU / GPU / FPGA的异构计算。应用驱动的研究项目包括人工智能(AI)的新型架构,如深度学习神经网络的计算机架构,neuromorphic计算和bio-inspired计算,新应用的硬件加速,如生物信息学应用,图形分析和机器人应用。

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的���项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款