你好,游客 登录
背景:
阅读新闻

【重磅】谷歌微软即将公布里程碑式量子突破,量子霸权崛起

[日期:2018-02-02] 来源:新智元  作者: [字体: ]

来源:FT、quantamagazine

编译:米乐 张乾 肖琴

【新智元导读】据外媒报道,谷歌和微软即将公布量子计算技术里程碑式的突破。2017年4月,谷歌公布其实现“量子霸权”的路线图,声称将利用49量子比特的模拟系统攻克传统计算机无法解出的难题,并将于近期披露相关论文。微软将其研发重点放在了“有效操纵”上,也将在近期公布重磅突破。

量子计算这一潜在的革命性技术,已经成为物理学家和计算机科学家长达35年的梦想。在不久的未来,这一领域将迎来重大进展。

据英国《金融时报》消息,在接下来几周内,谷歌和微软将分别宣布量子技术的两项里程碑式的重大突破。但是,快速实现商业应用是另外一回事。

量子计算领域的一些领先企业表示,量子计算机利用量子力学的性质大大加快了计算速度,将在五年内实现重要的实际应用,这比以前想象的要快得多。

微软将其研发重点放在“有效操纵”上

微软量子团队负责人托德•霍姆达尔(Todd Holmdahl)说,“我们有机会解决一系列以前无法解决的问题。”他支持五年预测。“在传统计算机上,这些问题用一辈子时间都无法解决。”

加拿大DWave公司7年前就开始销售特定类型的量子计算机,不过真正的目标是一种通用计算机,可以被编程者用来处理当今计算机范围之外的一系列任务。该技术的好处包括模拟分子运动、突破性药物研究,使机器学习更加强大。

然而,从事这项技术的其他人则认为这太乐观了。英特尔实验室负责人迈克·梅伯里(Mike Mayberry)表示,在真正可行的技术出现之前,大型科技公司之间将会有一场“十年的竞赛”。他说:“我们现在还处于‘玩具系统’时代”。

微软和谷歌即将宣布的两个里程碑将证明,最前沿的理论物理学如何迅速转化为实际应用。

尽管12年前量子计算已经开始,但微软尚未产生可以工作的量子位,即量子计算的基本元件。 Holmdahl先生说,目前已非常接近宣布“实现这一突破”。

这种声明通常是通过科学期刊上的研究论文来完成的,也就是说他们在出版前必须经过同行评议。 Holmdahl先生说,对微软来说,这也是“科学的重要时刻”。

微软花费的时间超过了一些:IBM早在1998年宣布了首个可用的量子位,去年十二月份,已经与多家合作伙伴一起帮助开发技术的实际应用。但是微软的量子位基于一种此前尚未得到证明的技术。如果这是正确的,那么软件公司将很快超越那些在这个领域领先的人并获得巨大的优势。

微软的设计解决了该技术最大的缺点之一。由于量子位很脆弱,因此量子计算机需要进行大量的错误修正。量子位只会在量子态停留很短暂的时间,因此结果很容易受影响。

微软的答案是:一种能有效分割电子的量子位,从而将同样的信息同时保存在多个地方。如果量子位的某个部分出现问题,那么其中包含的信息不会就此丢失,从而确保系统整体更稳定。

对于使用所谓拓扑量子位的计算机来说,内建的容错机制带来了巨大的优势。霍尔姆戴尔表示:“(不够健壮的系统)会产生大量错误,需要去解决。如果说他们需要1000到1万个量子位,那么我们只需要1个,因为我们的错误修正比他们要好得多。”

然而,即使微软确实达到了这个目标,创造首个可用的量子位只是第一步。Mayberry先生说,现在还不清楚哪一种竞争对手的量子比特技术最有效,因为制造商试图将现在的基本系统扩展成全面的通用计算机。

谷歌:解决传统计算机无法破解的极限难题

谷歌预期将公布的里程碑是首次展示用量子计算机解决对于传统计算机来说是极限的问题。

当量子计算机超越最强大的传统计算机之后,就将达到所谓的“量子霸权”。南加州大学量子计算专家、教授丹尼尔·利达(Daniel Lidar)表示,达到这个目标将有“非常重大的科学意义,这将是计算技术史上的首次,表明量子计算机已经跨过了这道门槛。”

在谷歌的计划表中,他们计划于2017年底达成“量子霸权”,并在去年年底展开了测试。这一测试的目标是证明,包含49个量子位的系统能解决超出任何传统计算机能力的问题。谷歌没有对最终结果置评,而结果是否成功也需要科学期刊的评审。

不过,IBM也在悄悄发力。通过对一台超级计算机进行编程,IBM成功模拟了一台包含50个量子位的量子计算机。这在以往是被认为不可能的。利达表示,随着量子计算机和传统计算机的设计者们你追我赶,这个领域内很可能会发生“真正的竞赛”。

然而,即使谷歌在推动“量子霸权”方面获得了成功(即专门设计传统计算机无法解决的问题,让量子计算机成功解决),利达和其他专家也认为,这项技术距离实际应用还有很长的距离。

即使来自微软和谷歌的突破得到证实,在如何扩大规模,系统如何编程方面,相关公司仍然面临巨大的挑战。系统可能需要100万个量子位,才能解决复杂的问题。

除了让量子位在更长的时间里保持量子态以外,其他问题还包括如何设计在极低温度下可工作的电子控制系统。梅贝里指出,继续扩大规模非常困难。

不过,作为资深产品经理的霍尔姆戴尔认为,这与其他硬件挑战没有太大不同。霍尔姆戴尔在Xbox游戏机的开发中扮演了核心角色。他表示,微软将设计和测试硬件版本迭代的时间缩短至2周,而在其他硬件领域,能快设计速迭代的公司将取得成功。

他表示:“现在的情况就是这样。这有点类似太空探索。我们将很快派人登月。”

量子机器学习:“量子”在这个词中没有任何意义

90年代初,将量子物理与人工智能结合起来,尤其利用当年还显得特立独行的神经网络技术,被认为无异于将油和水混合。

到今天,量子计算和人工智能的结合似乎已经成为世界上最自然的事情。神经网络和其他机器学习系统已经成为21世纪最具颠覆性的技术。这些系统已经可以通过巨大的计算能力成为可能,所以科技公司不可避免地要寻找不仅仅是更大的计算机,而且是全新类型的计算机。

量子计算机在经过数十年的研究之后,几乎有足够的优势来进行超越地球上任何其他计算机的计算。他们的杀手级应用程序通常被认为是大数据的因素,这也是现代加密的关键。加利福尼亚州伯克利市的量子计算机公司Rigetti Computing的物理学家约翰内斯·奥特巴赫(Johannes Otterbach)说:“量子计算的统计特性与机器学习之间有着天然的结合。”

如果有的话,钟摆现在已经摆到另一个极端了。谷歌、微软、IBM等科技巨头纷纷投入到量子机器学习中。“机器学习”正在成为一个流行语,”莫斯科斯科尔科沃科技研究所量子物理学家Jacob Biamonte说。 “当你把机器学习和'量子'连在一起,它就成了一个超级流行词。”

然而,“量子”这个词在其中并没有任何含义。虽然你可能认为量子机器学习系统应该是强大的,但它却遭受了一种闭锁综合症。它在量子状态上运行,而不是在人类可读的数据上运行,而两者之间的转换抵消了其优势。这就像一个iPhone X,它有强大的配置,但运行就像你的旧手机一样慢,因为你的网络很糟糕。对于一些特殊情况,物理学家可以克服这种投入产出的瓶颈,但是这些情况是否出现在实际的机器学习任务中还是未知数。

量子神经元(Quantum Neurons)

无论是经典还是量子,神经网络的主要工作都是要识别模型。 受人脑启发,神经网络是一个基本的计算单元网格——“神经元”,每个单元可以像开关设备一样简单。一个神经元监视多个其他神经元的输出,就像进行投票一样,如果有足够多的神经元开启,它就会开启。 通常情况下,神经元是分层排列的。 初始图层接受输入(如图像像素),中间图层创建各种输入组合(表示边缘和几何形状等结构),最后一层产生输出(图像内容的高级描述)。

从经验学习

至关重要的是,布线不是预先固定的,而是在一个反复试验的过程中适应。该网络可能会被输入标有“小猫”或“小狗”的图像。对于每个图像,它分配一个标签,检查是否正确,如果不正确,则调整神经元连接。它的猜测一开始是随机的,但随后会变得更好;也许在识别一万个样本后,它能认识猫和狗。一个神经网络可能有十亿个连接,所有这些都需要调整。

在一台经典的计算机上,所有这些连接都用一个巨大的数字矩阵表示,运行网络意味着做矩阵代数。传统上,这些矩阵操作被外包给GPU这类专用芯片。但是对于矩阵运算没有什么能比量子计算机做得更好。麻省理工学院物理学家、量子计算先驱塞斯·劳埃德(Seth Lloyd)表示:“在量子计算机上,大型矩阵和大型矢量的操作速度呈指数级提高。”

劳埃德估计,60个量子位就足以对一年内人类产生的所有数据进行编码,300个就可以传送可观测的宇宙的所有信息。(目前最大的量子计算机,由IBM,英特尔和谷歌建造,有50个量子比特。)

量子计算机在机器学习任务上的应用

2009年,谷歌曾领导的增强现实团队的计算机科学家Hartmut Neven开始进行量子技术研究。他们展示了一台早期的D-Wave机器如何处理机器学习任务。这是一个单层神经网络,任务是将图像分成两类:“汽车”或“没有汽车”,在20000个街道场景的数据库中。这台机器只有52个工作的量子位,对于处理一张图像来说都太少了。(需要注意的是:D-Wave机器与2018年推出的最先进的50-qubit系统相比是完全不同的类型)。

去年,由加利福尼亚理工大学的粒子物理学家玛丽亚·斯皮罗波鲁(Maria Spiropulu)领导的一个小组将这个算法应用于一个实际的物理问题:将质子碰撞归类为“希格斯玻色子”或“无希格斯玻色子”。他们使用基本粒子理论来预测哪些光子性质可能会出现Higgs转瞬即逝的存在,比如超过某个阈值的动量。他们考虑了8个这样的属性和28个组合,共计36个候选信号,并且让南加州大学的一个新型D-Wave找到最佳选择。它确定了16个变量是有用的,三个变量是绝对最好的。量子机器比标准程序需要更少的数据来执行准确的识别。南加州大学的物理学家、Spiropulu的合作者之一Daniel Lidar说:“假设训练集很小,那么量子方法确实比粒子物理学界使用的传统方法具有更高的精度优势。”

图:加利福尼亚理工学院的物理学家Maria Spiropulu使用量子机器学习来发现希格斯玻色子。

量子智能

另一方面,即使是对现有技术的偶然改进,也会使科技公司感到高兴。微软量子计算研究员内森•维贝(Nathan Wiebe)说: “如果有一个足够大,足够快的量子计算机,我们可以彻底改变机器学习的各个领域。”在使用这个系统的过程中,计算机科学家可能会解决机器学习理论难题。

Schuld也看到了软件方面的创新空间。机器学习不仅仅是一堆计算。这是一个复杂的问题,有自己的特定结构。他说:“如果这样的量子计算机可用,它使用什么机器学习模型?也许这是一个尚未发明的模型。”如果物理学家在机器学习问题中取得突破,他们需要做的不仅仅是将现有模型做成量子版本。

神经网络和量子处理器有一个共同点:他们的工作之有效令人惊奇。几十年来大多数人都对神经网络持怀疑态度。同样,量子物理学也长期被认为不可能用于计算,因为量子物理学的独特作用对我们来说是隐藏的。从神经网络的先例看来,它们的结合似乎也有可能。

参考链接:

[1]https://www.ft.com/content/4b40be6c-0181-11e8-9650-9c0ad2d7c5b5

[2]https://www.quantamagazine.org/job-one-for-quantum-computers-boost-artificial-intelligence-20180129/

收藏 推荐 打印 | 录入:Cstor | 阅读:
相关新闻      
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款