86231341 2019-06-27
摘要: 当人工智能碰见量子计算到底会产生什么样的化学反应呢?
去年三月,阿里巴巴宣布启动“NASA”计划,说要组建独立的研发部门,为服务20亿人的新经济体储备核心科技,解决10年、20后的困难。量子计算就被阿里视为能“解决20年后计算资源稀缺的秘密武器”,将应用于目前无法处理的重大科技难题上,其中包括通用人工智能的市场化、癌症的治疗计划等等。
今天我们就来聊一聊关于量子计算,全程烧脑干货!
任何科技的发展总结起来,都是人才的竞争。这似乎是永恒不变的真理。当然量子计算领域也是如此。
量子计算大牛施尧耘加入阿里云,担任阿里云技术首席科学家。他在接受采访时坦然说:目前量子计算领域有一个非常尴尬的处境:人才短缺。既懂量子,又善编程,两者兼顾的凤毛麟角。对于对黑科技感兴趣的程序员,这或许是一个机会!
或许,很多人压根不知道什么是量子计算。如果要介绍量子计算,就必须要先介绍量子计算的“爸爸”——量子力学。可能你还是不知道,不过没关系,马上你就会知道为什么你不知道。
量子力学是研究物质世界微观粒子运动规律的物理学分支,主要研究原子、分子、凝聚态物质,以及原子核和基本粒子的结构、性质的基础理论,它和相对论一起构成了现代物理学的理论基础。
前方高能!
量子力学打破了我们很多常识性的理解,宏观世界的生活经验很多都是表象。比如,你可能认为世界的运行是确定的、可预测的,一个物体不可能同时处于两个相互矛盾的状态。在微观世界中,这种表象被量子力学的规律打破了。
量子力学认为,世界的运行并不确定,我们最多只能预测各种结果出现的概率;一个物体可以同时处于两个相互矛盾的状态中。简单的来说,量子力学认为你可以一边在家里,一边在公司。(这才是量子力学真正难以让人接受的原因,颠覆三观的理论。)
这个时候,你可能认为这样颠覆三观的理论到底有什么用?现在对于我们人类最直接的用处就是量子计算。
一是:模拟量子系统,在材料科学、量子化学、药物发现等领域人们需要用大量的计算资源来模拟量子系统,量子计算机用来做这样的计算最自然最直接;
二是:用于帮助现在互联网公司都需要做的计算,比如机器学习的提速,基于量子硬件的机器学习算法,加速优化算法和提高优化效果等。
量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究,研究可逆计算机的目的是为了解决计算机中的能耗问题。
计算机所做的计算,就是操作经典比特。同样的道理,所谓量子计算机,就是在量子力学允许的范围内操作量子比特(量子比特暂时没有明确的定义)。在经典力学中,一个比特的状态是唯一的,而量子力学允许量子比特是同一时刻两个状态的叠加。
量子力学态叠加原理使得量子信息单元的状态可以处于多种可能性的叠加状态,从而导致量子信息处理从效率上相比于经典信息处理具有更大潜力。普通计算机中的2位寄存器在某一个时间仅能存储4个二进制数(00、01、10、11)中的一个,而量子计算机中的2位量子位(qubit)寄存器可同时存储这四种状态的叠加状态。随着量子比特数目的增加,对于n个量子比特而言,量子信息可以处于2中可能状态的叠加,配合量子力学演化的并行性,处理速度要比传统计算机更快。
上述的解释可能有些难以理解,并且没有充分的展现量子计算机的能力。我国量子力学的泰斗级人物郭光灿对其工作原理的通俗解释是:量子比特可以制备在两个逻辑态0和1的想干叠加态,换句话讲,它可以同时存储0和1。考虑一个N个物理比特的存储器,若它是经典存储器,则它只能存储2^N个可能数据当中的任一个,若它是量子存储器,则它可以同时存储2^N个数,而且随着N的增加,其存储信息的能力将指数上升。例如,一个250量子比特的存储器(由250个原子构成)可能存储的数达2^250,比现有已知的宇宙中全部原子数目还要多。
在计算机中,由于数学操作可以同时对存储器中全部的数据进行,因此,量子计算机在实施一次的运算中可以同时对2^N个输入数进行数学运算。其效果相当于经典计算机要重复实施2^N操作,或者采用2^N个不同处理器实行并行操作。由此可见,量子计算机可以节省大量的运算资源。
量子计算机巨大的并行计算能力,必须要有量子算法的支持。接下来我们罗列一下实用的量子算法,如果有兴趣深入了解,可自行深入学习。
1994年shor发现了第一个量子算法,它可以有效地用来进行大数因子分解。大数因子分解是现在广泛用于电子银行(支付宝)、网络等领域的公开密钥体系RSA安全性的依据。
1997年Grover发现了另一种量子算法,即量子搜索算法。这种算法可有效地攻击密码体系,经典计算需要1000年破解的密码,采用Grover算法的量子计算机只需不到四分钟的时间。
1998年的量子退火算法,其就是谷歌D-Wave量子计算机的核心算法,这也是为什么有人称D-Wave是量子退火机的原因。量子退火算法已经在超级计算机上模拟过,但是,效果不佳,因为量子退火算法的计算复杂度太高了。
这些科幻技术能投入实用吗?
MIT(麻省理工科技评论)公布了2017年十大突破性技术,实用型量子计算机入选,预计成熟期:4-5年。
实用型量子计算机的技术突破在于它能制造出稳定的量子比特。它的重要意义:在运行人工智能程序以及处理复杂的模拟和规划问题时,量子计算机的速度可能是传统计算机的指数倍,而量子计算机甚至能制造出无法破解的密码。
量子计算机虽然每年都是“十大突破性技术”的夺标大热门,但每年我们都得出同样的结论:仍然无法实用。现在,它正在把以前的理论设计变成现实。
从现在起2-5年内,这样的系统很有可能开始出售。最终,科学家们有望研制出拥有10万个量子比特的系统。这些系统会制造出精确的分子模型,从而颠覆材料、化学和制药产业,让科学家们研制出各种新材料和新药。
这是我们今天要讲的重点。人工智能被视为未来,而且近期在人工智能领域已经取得了不错的成绩,这让很多人更加坚定了人工智能是未来这句话。
那么人工智能的能力来源是什么?现在公认的是三样:大数据、计算能力、算法。前两样是时代发展的产物,大数据是因为互联网的发展积累的产物,而计算能力是摩尔定律发展的产物。
其实,很多人都应该知道,未来人工智能发展的最大障碍不是数据,不是算法,而是计算能力。特别是对于大数据时代来说,我们今天生产数据的能力和我们处理数据的能力已经严重出现了不匹配现象。我们需要量子计算机来帮助我们处理未来即将出现的海量数据。另外众所周知的阿尔法狗,它下一盘围棋所消耗的能量是人类的几十万倍,这一方面是算法上的不足,但是换个角度来看也是计算能力的不足。
另外一个很重要的信息,对于人工智能发展最大的噩耗:摩尔定律正在失效,中国科学院院士杜江峰认为,摩尔定律最多还能使用10年。并且他举了一个例子来解释他的看法:从物理科学基础上一个电子是不可再分的,不可能拥有从90多纳米到60多纳米,到40多纳米,到30多纳米······将来能够到零点几纳米甚至更小纳米的层面。从科学的原理上来讲,宏观问题上,是按照牛顿三大定律主宰的,但到纳米层面,牛顿定律不再适用,而会进入一个新的科学,也就是我们经常说的量子力学,描述的基础就不一样了。
还有一个问题,就是热耗散的问题,经典计算机器件,热耗散不可避免,而且集成度越高,热耗越严重。但对于量子计算机来说,原理上保持可逆计算,没有热耗散,它可以在里面自循环,没有热耗散也遵从量子力学规律。
量子计算能够让人工智能加速,原来需要一千台机器,或者需要一万台,现在用量子计算机可能一台就够了。量子计算机将重新定义什么才是真正的超级计算能力。同时,量子计算机也将有可能解决人工智能快速发展带来的能源问题。在量子人工智能这方面,谷歌已经开始建立量子人工智能实验室。其目的就是用量子计算技术来应对每天产生的海量数据处理,进而优化人工智能。
总结:
量子计算机的计算能力将为人工智能发展提供革命性的改变,它能够指数加速学习能力,轻松应对大数据的挑战。
本文作者:虎说八道。
原文链接
本文为云栖社区原创内容,未经允许不得转载。