拥有高出普通计算机数十乃至数百倍算力的量子计算机,是吸引了无数科技公司、大型学术团体乃至中国政府的研发热点。

然而,希伯来大学的数学家、耶鲁大学数学与计算机科学兼职教授吉尔·卡莱(Gil Kalai)却表示,由于量子力学基本原理的限制,现有的主流技术永远无法使量子计算机成功进入实?#35270;?#29992;。

这种观点引发了圈内人?#32771;?#28872;的争论,也让我们开始思考:在竞争激烈的赛道?#24076;?#21040;底谁能够最终实现超越普通计算机的“量子霸权?#20445;?/p>

  法国和瑞士的边境线?#24076;?#22823;型强子对撞机(Large Hadron Collider,LHC)正在地底沉眠。未来几年里,这台世界上最大的粒子加速器将得到升级,而功能的增强会带来更加巨大的数据流——甚?#37327;?#33021;到达高能物理学领域前所未见的数量级。

  在 2018 年 12 月被关闭之前,LHC 每秒大约能产生 300 GB 的数据,一年下?#35789;?#25454;量就能累积高达 25 拍字节(petabytes , 简称 PB。1 PB = 1024 TB)。换句话说,同等大小的 MP3 歌曲,一个人要用 5 万年才能听完。在 LHC 升级完成后,?#20998;?#26680;子研究组织( European Organization for Nuclear Research,通称 CERN)的科学家必须拥有比现在高 50 到 100 倍的计算机算力才能处理好随之而来的数据。而?#20889;?#34013;图阶段的未来环形对撞机(Future Circular Collider, FCC),规模是 LHC 的 4 倍,强度则是 10 倍,将会产生难以想象的海量数据——至少是 LHC 的 2 倍。

  为了不被?#35762;?#36924;近的数据洪流淹没,CERN 的一些成员开始将目光投向新兴的量子计算领域。 在 LHC 正在?#35762;?#30340;自然法则驱动下,量子计算机在极短时间内处理海量数据将成为可能。更重要的是,量子计算机和 LHC “语言相通”——量子力学是它们共同的基石。问题是,目前我们只拥有量子计算的理论原型,没人有把握能建起一个真正的、可靠的量子计算设备。

  量子计算机

  无论是 Apple Watch 还是计算能力卓越的超级计算机,这些传统计算机?#23478;?#36182;于微小硅晶体管,通过类似“开、关”的状态转换来编码数据。每个电?#20998;?#23384;在两个状态——二进制代码中的 1(开)或 0(关); 计算机通过控?#39057;?#36335;中的电压来转换“开、关”状态,完成编码。

  不过,量子计算机并不?#24515;?#20110;这种“非 1 即 0”的存储运算方式。它的内存由量子比特(quantum bits)组成。量子比特可以做到“既 1 又 0?#20445;?#36825;意味着量子计算机可以叠加所有可能的 0 和 1 组合——让“1”和“0”的状态同时存在。

  对 CERN 来说,量子计算机可以帮助他们?#31169;?#22823;爆炸之后的几分钟内,早期宇宙的演变过程。物理学家确信,大爆炸刚刚结束后,整个宇宙是一锅状态奇特的“汤?#20445;?#28822;着”被称为夸克(quark)和胶子(gluon)的亚原子粒子。为了理解这种夸克-胶子等离子体怎样演变成宇宙如今的样子,研究人员模拟出了宇宙婴儿期的状况,然后在 LHC 上利用多次对撞实验测试这一模型。因为量子计算和 LHC 中不停对撞的粒子被相同的物质法则支配,所以利用量子计算机进行模拟,可以得到更为精确的测试模型。
一场马拉松

  在基础科学研究领域之外,银?#23567;?#21046;药公司和政府也在苦苦?#21364;?#22240;为量子计算机可以提供?#21364;?#32479;计算机高几十甚至上百倍的算力。

  不仅是谷歌,IBM、微软和英特尔,一些创业公司、学术团体甚至中国政府?#25216;?#20837;了量子计算机研发的竞争中。这场“竞赛”的投入相当丰厚:2018 年 10 月,欧盟?#20449;?#22312;未?#35789;?#24180;里,为 5,000 余名?#20998;?#37327;子技术研究人员提供 10 亿美元的经费。与此同时,风险投资?#31169;?#22312; 2018 年一年间,就为研究量子计算的各种公?#23601;?#20837;了约 2.5 亿美元。悉尼大学微软量子实验室的负责人大卫·雷利(David Reilly)评价说:“这是一场马拉松,而我们在这场马拉松里才刚跑了 10 分钟。”

  尽管围绕量子计算的炒作不?#24076;?#26032;发布的量子比特记录?#30475;?#37117;会引起?#25945;?#22823;肆报道,但其实没有一个研究团队达到甚至接近量子计算研究的第一个里程碑——“量子霸权?#20445;╭uantum supremacy)。它指的是量子计算机在执行任务时,能够超越经典计算机,表现得更好。这些任务可以是任何?#38382;?#30340;,甚?#37327;?#20197;是完全人为编造或毫无意义的。量子计算圈内很多传言称,谷歌可能已经接近了量子霸权,但悉尼大学的物理学家、量子计算创业公司 Q-CTRL 的?#35789;?#20154;迈克尔·比埃库克(Michael Biercuk)认为,?#35789;?#36825;是真的,最多也就是给公司制造了一个吹嘘的资本。雷利则表示:“这更像是一个人为设置的、用于吸引眼球的花?#23567;!?#27809;有任何现实意义。”

  雷利和比埃库克之所以这样说,是因为这场马拉松真正意义上的分水岭——“量子优势?#20445;╭uantum advantage)比“量子霸权?#22791;?#21152;遥远。量子优势指的是量子计算机在一项具有实际意义的任务上胜过经典计算机。(也有一些研究者认为 “量子霸权”和“量子优势”这两个术语的意义是相同的。)只?#20889;?#21040;了量子优势,马拉松?#28909;?#30340;终点线才得以显现:通用量子计算机的诞生。人们希望通用量子计算机能够带来一场“计算革命?#20445;?#22312;它的帮助下,我们可以设计出用于拯救生命的药物新分子、帮助银行调整其风险投?#39318;?#21512;、突破所有现行密码学规则并开发出更强大的保密系统……而对于 CERN 的科学家来说,?#24378;?#20197;让他们一窥大爆炸带来的新生宇宙的真面目。

  CERN 的物理学家?#35757;?#37324;科·卡米纳蒂(Federico Carminati)承认,今天的量子计算机难以给研究人员提供?#21364;?#32479;电脑更多的东西。但在?#21364;?#25216;术成熟的过程中,不畏艰难的他已经开始修补 IBM 的量子计算机原型——这是当今量子马拉松中我们迈出的最新一步。2018 年 11 月,CERN 和 IBM 在一个行业研讨会上达成了合作协议。

  IBM 一直在稳步增加其量子计算机上的量子比特数量,从微型的 5 比特(5-qubit)开始,发展到 16 和 20 量子比特(16- and 20-qubit),直到最近的 50 量子比特(50-qubit)处理器。CERN 研究人员则开始开发全新的算法和计算模型,旨在与量子设备协同发展。卡米纳蒂说:“这次合作的基础是我们与技术提供商建立了稳固的关系,这是我们量子计算研究的第一步。尽管我们入局有点晚,但是能带来独特的专业知识。要知道我们是量子力学专家,而量子力学是量子计算的基石。”
 取代传统计算机?

  英特尔前 CEO 戈登·摩尔(Gordon Moore)在 1965 年做出的著名预测——“集成电路中的元件数量大约每两年增加一倍”——在过去的半个多世?#32479;?#20026;了计算机行业的圣经。但是越来越多的人认为,摩尔定律即将达到物理极限。20 世纪 80 年代以来,被加州理工学院著名物理学家理查德·费曼(Richard Feynman)发扬光大的“另一种方法”为计算机行业找到了新的出路。在 1981 年的一次演讲中,他感叹计算机无法真正模拟在亚原子水平上发生的事情,?#28909;?#30005;子和光子这样棘手的粒子——有时波函数能描述其运动,但它们有时又同时呈现两个状态,即量子叠加态。

  费曼提议建造一台可以模拟亚原子水平粒子运动的机器。 “对于所有分析?#23478;?#25454;经典理论这件事,我并不是很欣?#20572;?#33258;然世界他么的可不等于经典理论。”他这样讲道,“如果想模拟自然,最好用量子计算机。这绝对是个好主意,因为它听?#20808;?#21487;不怎么容易。”

  自此,量子计算机研究的马拉松鸣枪开跑。量子比特可以用不同的方式构造出来,但这一过程必须遵循一定的规则:两个量子比特可以同时处于状态 A 或 B,?#37096;?#20197;分别处于状态 A 和 B,所以总共有四种可能情况。不过在测量之前,你很难知道量子比特的具体状态。所以要?#31169;?#20854;具体状态,就必须将量子比特拉出量子世界,进入我们所在的平凡世界。

  理论上量子计算机可以同时处理量子比特能够拥有的所有状态,内存中每增加一个量子比特,它的计算能力应该?#25163;?#25968;式增长。3 个量子比特有 8(2^3)个状态可以同时工作;4 个量子比特有 16(2^4)个状态; 10 个量子比特有 1024(2^10)个状态; 对于 20 个量子比特,则会有高达 1,048,576(2^20)个状态。我们甚至不需要太多量子比特,就可以超越世界上最顶尖的超级计算机的内存配置。而这就意味着,对于特定的任务,量子计算机可?#21592;?#19990;界上所有常规计算机更快地找到解决方案。再?#30001;?#37327;子力学的另一个关键?#25293;睿?#32416;缠态(entanglement)。这意味着量子比特可以链?#25317;?#25972;个量子系统,这样对一个量子比特的操作就可以影响到系统的其余部分。而量子计算机可以同时利用以上两项优势,大大提高其计算能力。

  许多机构正在量子计算机马拉松中全力前行之时,还有很多公司和实验?#20381;?#29992;不同的方法,和?#32422;罕热?018 年,来自加州理工学院和南加州大学的物理学家,使用量子计算机对 LHC 产生的数据进行筛选,成功复制了 2012 年希格?#20849;?#33394;子的发现过程。这台量子计算机由 D -Wave 制造,这家来自加?#20040;?#30340;公司尽管没有实现“量子霸权?#20445;?#20294;是他们证明了量子计算机能够完成传统计算机完成过的工作。

  超越之路

  这场马拉松中最早踏上跑道的运动员之一,D-Wave,在 2007 年宣布成功建造了一个功能齐全的商用 16-qubit 量子计算原型机,不过这一说法至今仍存在争议。 D-Wave 专注于一种被称为“量子退火?#20445;╭uantum annealing)的技术,以现实世界中量子系统自然趋向低能态的原理(有点像陀螺转到最后总会倒下)为基础。 D-Wave 量子计算机将问题的可能解决方案视为地面上的山峰和山谷,用坐标来表示,而这些峰和谷的高度则代表其能量。量子退火允许设置问题的初始值,然后让系统在大约 20 毫秒内?#24503;?#21040;低能态,从而得到答案。在这个过程中,量子计算机会从能量高峰下落,直至找到广阔地面中的最低点——也就是众多解决方案中的最优解。但是它并不试图完全纠正所?#20889;?#35823;,这在量子计算中是不可避免的。D-Wave 的首席产品官阿兰·巴拉兹(Alan Baratz)表示,公司正在研究可以通用的退火式量子计算机原型。
 除了 D-Wave 的量子退火技术,还有三种巧妙利用量子世界的方法:集成电路(integrated circuits)、拓扑量子比特(topological qubits)和激光捕获离子(ions trapped with lasers)。CERN 对第一种方法寄予厚望,但也在密切关注其他方面的进展。

  IBM 研制的量子计算机刚开始被 CERN 投入使用,谷歌和英特尔也有类似的产品。他们?#23478;?#36229;导金属,即零电阻的金属为载体,制造了具备集成电路的量子芯片“量子门?#20445;╭uantum gates)。每个量子门都包含一对极?#36164;?#21040;干扰的量子比特。任何噪声信号都将破坏这对量子比特并导致误差。在量子世界中,温度波动、电磁波、声波和物理振动等?#28909;?#20309;干扰?#38469;?#20110;噪声信号。

  量子门芯片需要被冷却到极低的温度,才能最大程度摆?#28153;?#30028;噪声,并使电路具有量子力学效应。坐落在苏黎世的 IBM 量子实验室中,芯片被安?#38712;?#19968;个白色的罐子里,那是一个悬挂在天花板上的低温恒温器。罐内温度稳定在 10 ?#37327;?#23572;?#27169;╩illikelvin,mk)或 -273℃,这个温度高于绝对零度(-273.15℃),但低于外太空温度(-270.15℃)。不过?#35789;?#22914;?#35828;?#30340;温度,也无法让量子门达到最优状态。

  使用量子比特芯片时,科学家开始操作都会产生噪声。2012 年创造了“量子霸权?#22791;拍?#30340;加州理工学院物理学家约翰·普雷?#22815;?#23572;(John Preskill)表示:“外部世界会不断与量子芯片相互作用,并破坏我们正在努力处理的信息。”由于做不到完全消除噪声,研究人员?#32531;?#23613;可能地抑制它。而超低温状态下,至少量子芯片具有一定的稳定性,能给研究人员更多的时间来进行量子计算。

  “我的工作就是延长量子比特的寿命,而且我们总共只有 4 个量子比特可用。”在苏黎世实验室(Zurich lab)工作的牛津大学博士后 Matthias Mergenthaler 说。4 个听起来不是很多,不过对量子比特来说,质量比数量重要。而这就意味着,研究人员要保持尽可能低的噪声水平,以确保它们尽可能长时间地处于叠加态,从而允许量子计算的进?#23567;?#36825;正是量子计算面临的最大挑战之一:需要极其精细的降噪手段。

  一旦降噪成功,研究人员就会在传统计算机上运行的特殊?#26469;?#31639;法的帮助下,对量子计算遗留下的问题进行?#26469;懟?#36825;种?#26469;?#26041;式是对每个量子比特逐个纠正,所以量子比特越多,系统需要处理的错误就越多。假设量子计算机每 1,000 个计算步骤出错 1 次(这听起来不多),但经过 1,000 次左右的操作后,程序将输出错误结果。所以,为了输出有意义的计算结果并超越传统计算机,量子计算机必须拥?#20889;?#32422; 1,000 个处于?#31995;?#30340;噪声水平、并且得到了?#26469;?#30340;量子比特。这 1,000 个量子比特作为一个整体,被研究人员称做逻辑量子比特(logical qubit)。不过,这样的逻辑量子比特到目前为?#22815;?#38590;以成功维持——目前最好的量子计算原型机所能实现的对量子比特的?#26469;恚?#20063;只有 10 个。这就是它们被命名为?#38712;?#22768;中尺度量子计算机(noisy intermediate-scale quantum computers , NISQ)”的原因。NISQ 这个术语诞生于 2017 年,和“量子霸权”一样,命名者也是普雷?#22815;?#23572;。

  对于 CERN 的物理学家卡米纳蒂来说,虽然量子计算机远离一个成熟技术的标准还很远,但这不是主要问题。他们面临的挑战是,做好在硬件条件满足要求时,释放量子计算机强大算力的准备。 “一个令人兴奋的可能是,我们可以用量子计算机对量子系统进行非常非常精确的模拟,毕竟它本来就是一个量子系统,”他说,“其他开创性突破将来自量子计算和人工智能对大数据的联合分析。这是个相当雄心?#25345;?#30340;构想,对我们的需求至关重要。”

  各显神通

  但也有一些物理学家认为,我们永远不可能为噪声中尺度量子计算机(NISQ)降噪成功。耶鲁大学教授吉尔·卡莱(Gil Kalai)表示,?#26469;?#31995;统和降噪技术永远都不可能发展到足够成熟、能够允许量子计算机进行有实?#35270;?#36884;的计算的程度。他说,这不是技术原因,而是来自量子力学基本原理的限制。交互系统中的错误有连接或关联的倾向,这意味着错误会同时影响许多量子比特。因此,对需要依靠大量量子比特完成计算的量子计算机而言,通过创建?#26469;?#20195;码来保持足够低的噪声水平,是不可能完成的。

  “我的分析表明,几十个量子比特的 NISQ 提供的算力极为低下,根本不可能作为模块组成我们所需的更大规模的量子计算机。”吉尔·卡莱表示。这种怀疑论在科学界被热议,卡莱?#28909;?#30340;博客是讨论者的聚集地。这里最近出现了一篇分享次数不少的文章,题为《反对量子计算的案例》(The Case Against Quantum Computing)。而紧随其后的就是对这篇文章的驳斥,《对反对量子计算的案例的反对》(The Case Against the Case Against Quantum Computing)。

  目前,这些批评家仍然是少数。加?#20040;?#28369;铁卢大学(University of Waterloo)的物理学家雷·拉夫兰姆(Ray Laflamme)认为:“如果我们能将量子比特保持在测量时的状态和规模,那么(量子计算机的?#26082;?#24615;)就没什么问题。” 现在的着眼点并非能否达到 50、72 或 128 个量子比特,而是将量子计算机扩展到这样的规模后,整体误差率是否会显著提高。

  其他科学家则认为,用另一种方式构造量子比特,才是抑制噪声与创建逻辑量子比特的最佳方法。?#28909;?#24494;软的研究人员正在研发拓扑量子(topological qubits)——尽管其世界各地的量子实验室众多,但时至今日也没人成功。如果这种拓扑量子能够成功问世,它们将比集成电路稳定很多。微软的思路是把一个粒子(?#28909;?#30005;子)割裂为两部分,从而创造出马约拉纳费米子准粒子(Majorana fermion quasi-particles)。这?#33267;?#23376;在 1937 年被理论化,并于 2012 年由荷兰代尔夫特理工大学(Delft University of Technology)的研究人员在微软的凝聚态物理实验室,获得了证明其存在的首个实验证据。

  微软的量子硬件(quantum hardware)总经理切坦·纳?#24378;?(Chetan Nayak) 表示,“目前我们的 1 个拓扑量子比特相当于市场上的 1,000 个其他量子比特。” 换句话说,每个拓扑量子比特本身就能构成一个逻辑量子比特。雷利认为,对这些行踪缥缈难以捉摸的量子比特的研究是值得的,虽然几年来进展甚微,不过一旦成功,将这种拓扑量子比特扩展到数千逻辑量子比特的规模,会比 NISQ 的降噪要容易得多。 “对我们来说,尝试在不同的量子模拟器和硬件上运?#20889;?#30721;和算法,以期得到最终的解决方案十分重要,”卡米纳蒂说。 “当然,还没有量子计算机能达到量子产品的?#24179;鶚逼冢?#25105;们也一样。”

  卡米纳蒂正在密切关注的另一家公司是 IonQ,它是一家从马里兰大学诞生的创业公司。他们利用第三种方法来研究量子计算:捕获离子(trapping ions)。 这些离子是天然的量子,所以一开始在室温下就具有叠加效应,这意味着它们不像 NISQ 的集成电路那样需要超低温条件。每个离子都是一个量子比特,研究人员用特制的微小硅离子笼捕获它们,然后用激光照射,通过调整每个微小激光束击中量子比特的时间和强度来运行算法。光线会将数据编码到这些被捕获的离子中,并通过改变每个离子的电子状态读取数据。

  IonQ 在 2018 年 12 月推出了商业化产品,这款量子计算机搭载了 160 个离子量子比特,并可以在 79 个量子比特组成的序列?#29616;?#34892;简单的量子操作。不过,目前这种离子量子比特同谷歌、IBM 和英特尔的集成电路一样有着较大的噪声信号。无论 IonQ,还是世界上其他同样利用激光捕获离子方法的实验室,还没有人实现量子霸权。

  量子计算机相关的讨论?#32479;?#20316;沸沸扬扬,然而时间不?#28909;恕?#30701;短五年内,LHC 就将从沉眠中醒来,变得更加强大。它产生的所有数据都需要进行分析。一个没有噪声信号、具备?#26469;?#21151;能的量子计算机,将会使数据分析这项原本繁重的工作变?#20204;?#24039;而便捷。量子计算机赛道上从不缺优秀竞争者,谁会是这场马拉松的最后赢家?

原文来自:https://news.cnblogs.com/n/622667/

本文地址:http://www.52437949.com/who-can-finally.html编辑?#21644;?#28009;,审核员:逄增宝

Linux命令大全:https://www.linuxcool.com/