• 站内检索:
当前位置:首页 > 文明单位创建

【科学家精神】郭光灿院士|量子计算发展现状——2025年全国高等物理基础课程教育学术研讨会大会报告

发布日期:2026-04-03 15:42来源:物理与工程、安徽省科学技术协会网站 阅读次数:
[字体:  ] 打印本页


1 量子计算机的发展背景: 突破经典技术物理局限

今天报告主题是大家比较关注的量子计算机,这一概念相信大家都有所了解。在座的各位都是物理学相关领域的工作人员,具备相应的知识储备,因此本次报告并非一般的科普,而是具有一定专业性的探讨。在当今多样化的信息技术中,量子计算机最为引人注目,也被认为是最有潜力对人类社会发展产生深远影响的技术。因此,全球的目光都聚焦于这一领域。

今天我们主要探讨三个问题。首先,我们关注当下的信息时代,大家广泛使用的手机、电脑、互联网等技术,极大地推动了人类社会的发展进步。但这些技术的工作原理均属于经典物理的范畴,因此可统称为经典技术。

 

所有经典技术在性能上都存在极限,即其性能无法无限提升,这被称为物理极限。以电子计算机为例,其仍在飞速发展,芯片制程不断缩小,目前已达到2纳米级别,且运行速度持续提升。然而,物理学家早在20世纪80年代就曾探讨摩尔定律是否存在极限,并得出结论:摩尔定律有极限,这是理论的上限,它不可能无限地发展。若经典技术触及摩尔定律的极限,则经典算力便达到了瓶颈。算力到了极限,如果社会还需要更强的算力怎么办?量子信息技术便应运而生了。

运用量子极限开创出来的量子技术,可以突破这些经典技术的物理极限。在量子技术中,最具颠覆性的当属量子计算机。量子计算机一旦得以实现,其算力相较于经典算力将呈现指数级提升。随着量子处理器比特数的增加,量子计算机的算力会以2的N次方的速度增长,从而极大地提升计算机的算力。这便是量子计算机的发展背景。

所以本次报告主要阐述两个方面的问题:第一,为何量子算力能够实现指数级的增长并超越经典算力?第二,量子计算机的发展状况如何?何时能够真正解决实际问题?量子计算机的时代何时到来?

 

2 量子算力超越经典算力的底层逻辑: 量子世界的独特特性

接下来要探讨的是量子计算机的优势所在,及其与量子世界特性的关联。相较于经典世界,量子特性有两个重要方面:不确定性和非局域性。

 

为了深入理解不确定性和非局域性,我们需要先回顾经典物理对应的特性。经典物理只遵从经典世界,它的特性就是确定性和局域性,量子世界同样有其固有特性——不确定性、非局域性,这是理解量子世界的两个关键概念。

因此,需要稍作详细解释。经典世界的确定性指每个时刻,物理客体的物理量都具有确定的值。时间、动量、能量等所有物理量在某一时刻均有确定的值。即便下一时刻状态可能出现变化,但特定时刻的状态基本是确定的,这称为确定性。局域性则指物理客体的状态不会受到与其无相互作用的其他客体的影响。自然界存在四种基本相互作用,这是众所周知的。如果两个客体之间没有任何相互作用,那它们的状态不会互相影响。简言之,无相互作用的两个物体,其状态互不干扰。这一性质被归纳为局域性。经典世界是服从局域性的,四种基本力也是服从局域性的。局域性这个概念在经典物理领域中根深蒂固。

量子世界区别于经典世界的独特性质在于:其一是不确定性,即在某一时刻,客体的物理量不具有特定的值,而是呈现概率分布。它的动量在确定值空间的位置和确定的时刻没有确定的值。所以对于一个空间中的量子(即具有波粒二象性的微观粒子),其是以概率分布的形式存在于空间中的。它的所有物理量,包括能量和动量都是概率分布的,这便是不确定性的内涵。

 

其二称为非局域性,这一概念相对难以理解。科学界认识非局域性历时近90年。相关的早期争论可追溯至1927年爱因斯坦与玻尔的论战,其焦点就是量子性的对错与否。爱因斯坦提出了一个问题来证明量子是不合理的。实际上在当时,包括爱因斯坦本人在内,科学界对量子力学的非局域性尚缺乏认识。直到2022年,实验观测到量子纠缠现象,该实验为长达数十年的争论提供了决定性证据。量子纠缠是非局域性的体现,至此科学界才公认,量子世界具有与经典世界截然不同的性质——非局域性。

那么非局域性是什么意思呢?局域性的意思是指无相互作用的两个物体不互相影响,非局域性便容易理解了:即使不存在四种相互作用中的任何一种,两个客体也可能会互相影响。只要它们之间存在关联,就会互相影响。

当两个客体的物理量存在关联,这种状态便称为纠缠态。因此,如果两个粒子形了纠缠态,一旦一个粒子的状态发生变化,另一个粒子必将瞬时发生相应变化。因为它们纠缠、关联在一起,一方的变化会立即导致另一方变化,这便是非局域性。该性质非常奇特,与经典物理完全不同,也因此经常引发误解。

我们进一步探讨不确定性如何塑造量子世界,为此引入量子态增加原理。如果说经典信息是确定的(要么是0,要么是1),那么量子世界的量子信息则是不确定的。其基本单元称为量子比特,它是0和1两种状态按一定权重的叠加。因此,量子态究竟处于0还是1是不确定的,它是概率分布的。处于0的概率是α0的平方,处于1的概率是β1平方,α平方加β平方等于1。

 

需要指出的是,叠加原理并非量子世界独有。在光学中也存在叠加原理,但量子叠加原理与经典的叠加原理是不同的。经典叠加原理是物理量的叠加,而量子叠加是量子态的叠加。两个确定的量,它一个可能的状态是1,另一个可能的状态是0,它的叠加量子态是什么?经典物理没有量子态这一概念来描述量子客体的状态,没有对应的经典物理量可以描述它。量子态是量子力学、量子信息等的灵魂,我们用它来描述一个客体的状态。

我们对一个量子科技的认知就是基于对其量子态的描述,不能超越量子态。一旦了解一个客体的量子态,便可从中计算出该客体的所有物理性质。所以要理解量子力学,必须首先理解量子态这一概念。现在市场上有很多产品号称是量子产品,但实际上是冒充的。诸如“量子鞋垫”“量子眼镜”等多为虚假宣传。可以用一个标准来判断,其所用的信息是什么?有没有量子态。如果根本不出现量子态,就根本就不涉及量子力学。由此可见量子真是太强大了。

在信息领域的量子信息也是如此。量子信息输入进来,这个量子态会变为两个态再叠加一个态。因此,我们知道的是量子态叫做量子比特。量子比特就是量子世界处理信息的基本单元,而不是经典信息中传统的0和1。

需要注意的是,量子比特含有α和β两个经典数据。α和β变了,量子态就变了。若一个量子芯片有N个量子比特,则其包含2的N次方个经典数据。因此,对于一个比特的计算机,只有一个数据,那么量子芯片就含有2的N次方个数据,它的存储数据能力是电子计算机的指数倍。当操作该量子芯片时,单次操作原则上可同时作用于2的N次方的数据自由度上,这就是量子计算机具备并行运算能力的物理基础。相比之下,经典电子芯片在某一时刻,无论N多大,一次只能操作一个确定的数据,是串行运算模式。因此,手机、电脑等经典设备是串行运算,而量子计算机的运算速度因此具备指数级提升的潜力,这是其超越经典算力的内在原因。量子计算机的物理基础即在于此。

第二个性质是非局域性,即量子纠缠。如前所述,量子纠缠的本质是两个或更多客体间某个物理量的关联。例如,两个无纠缠粒子,其自旋取向是随机且独立的。但若通过量子门等操作使它们的自旋总保持相反,即建立了关联,形成了纠缠。由于纠缠的存在,每个粒子的自旋状态不再完全自由,会受到另一个粒子状态的制约。

 

若将这两个纠缠粒子分别置于地球和月球,在地球上测量得到粒子自旋向下,则可立即知月球上的粒子自旋必向上。此变化是瞬时的,无需传递信号。因为关联早已存在,地球上粒子的测量结果决定了月球粒子状态。此过程并未传递信息。爱因斯坦曾据此质疑量子力学的完备性,认为需要超光速信号,这与相对论矛盾,他称之为“幽灵般的超距作用”。但由于爱因斯坦时代的局限,未认识到量子非局域性。

非局域性与局域性根本不同,它不要求物体间存在相互作用才能相互影响。只要存在量子关联,便可通过改变一个粒子状态来影响另一个粒子,这就是纠缠的本质。纠缠具有重要应用:例如,芯片中N个量子比特若部分相互纠缠,则操作其中一个比特,所有与之纠缠的比特状态都会瞬时关联变化,尽管它们之间可能没有直接相互作用。这为计算带来巨大优势。

如前所述,量子计算机具有并行运算能力,但并行运算结果的提取是一大挑战。因为运算结果是一个量子态,需要通过测量才能得到经典数据,而测量结果具有概率性。20世纪80年代,物理学界面临如何有效提取结果的问题。

后来数学家彼得·肖尔作出了重大贡献。他提出将量子纠缠性质应用于量子计算,从而最大限度地提取信息,这就是量子算法。肖尔利用量子纠缠效应发明了有效的量子算法,构建了能够利用并行运算能力的程序,使量子计算机的算力得以超越电子计算机。这一突破性进展激发了物理学界的极大兴趣。

此前,量子计算机多被视为理论构想,物理学家对其实现缺乏信心。关键突破在于找到了通过算法将并行计算能力付诸实用的途径。优秀算法能以高概率提取正确答案,而低效算法则难以从概率性结果中获取所需信息。这展示了如何利用量子纠缠性质及有效算法。量子世界的特性是量子计算机的物理根源。

更具体地说,经典电子计算机有N个比特,每个计算单元处于确定的“0”或“1”状态。因此,在某一时刻,计算机存储的数据是一个确定值,通过计算操作,该数据在下一时刻变为另一个确定值。通过一步步串行操作,最终输出一个结果。量子计算则不同,每个量子比特是0和1的叠加态,由α、β参数描述。这是其并行运算的物理基础。输入初始量子态后,并行计算可快速完成。

完成量子态演化后,需通过测量将其转化为经典数据。测量量子态(其波函数)会得到概率性结果,需要进一步处理。采用如肖尔算法等量子算法,通过量子操作(如量子门序列),使代表正确答案的量子态振幅相干相长(概率趋近于1),而不需要的结果相干相消(概率趋近于0),从而以极高概率提取出最终所需的经典结果。

 

这就是量子计算机的工作原理及并行运算的基本逻辑。这些量子特性除用于计算外,还可应用于量子密码、量子传感等领域。所有这些量子科技都利用了这些量子性质。

 

3 量子计算机研制的核心障碍与解决路径

以上阐述了量子计算机的优点,但它也存在严重缺点,这也是研制量子计算机的主要障碍。第一个障碍是量子态的脆弱性。量子计算机运行依赖于量子特性(如叠加、纠缠),但这些特性非常脆弱。将一个量子系统置于宏观环境中,其波函数的相干性会迅速退化(消相干),纠缠消失,存储的信息丢失。早期物理学家面临此问题时曾感叹,虽有好的设计概念,但难以维持其工作状态,认为量子计算机难以实用。

后来,物理学家提出了容错量子纠错原理。该原理能确保在存在消相干噪声的环境下,量子信息得以保持相干性,并在处理过程中进行纠错,最终获得可靠计算结果。这一原理的提出,使得量子计算机的发展不再存在原则性困难。相关量子纠错码提出后,研究界得以松一口气,量子计算机的可行性得以挽回,科学家们从而得以持续推进研制工作。

核心挑战在于:首先,对量子比特的操作精度并非百分之百。人类对微观世界的操控是前沿技术。量子系统涉及大量粒子,难以保证对每个粒子精确操作,且操作本身会引入误差。这两大问题是阻碍量子计算机研制的根本原因。

迄今为止,这两个问题在理论上已获解决,但实际实现仍面临巨大困难。如何在应用中实现理想的量子计算?一项重要技术是量子编码。量子编码能保障量子存储器的正常工作。由于量子态极其脆弱,易受环境干扰退化成经典状态,叠加态消失,导致数据丢失。编码意味着在制备物理比特时,其保真度并非绝对为1(如0.99),即存在噪声。噪声会在操作过程中累积,导致最终结果不可靠。

 

编码的目的,是确保存储器中的相干性和保真度,一旦出现错误能及时修正。通过编码,将物理比特构造成特殊的量子纠缠态,即逻辑比特。逻辑比特虽仍受消相干影响,但易于发现并纠正错误。因此,逻辑比特是可纠错的基本单元。

最终,要研制通用量子计算机,其计算单元需是逻辑比特(即不易出错的单元)。目前理论估算,约需上千个物理比特才能编码成一个逻辑比特。而一台能投入实际应用的量子计算机至少需要1000个逻辑比特,即需百万物理比特规模,其制备成本巨大。当前最高水平的量子计算机仅达到千比特物理规模,距离此目标尚远。在此过程中,人工智能(AI)可发挥关键作用。AI技术无处不在,在量子信息领域亦然。AI赋能有助于寻找最优方案,例如用更少的物理比特编码一个逻辑比特,这是未来重要的研究方向。

 

目前,已有方案实现用几十个物理比特编码一个逻辑比特。若此技术成熟,构建通用量子计算机所需的物理比特数将大幅减少。这是量子计算机与AI融合的发展方向。在AI赋能下,尤其是纠错方面,通用量子计算机有望早日实现。此外,在优化操作方案、提升测量精度等方面,AI技术也大有可为。AI与量子计算已深度融合。此处主要讨论AI赋能量子计算,后续还将提及量子计算如何赋能AI。

目前存在多种编码方案,如量子纠错编码,用N个物理比特编码一个逻辑比特,虽可能出错,但可知如何纠正。另一种方案是量子避错,将信息编码到特定子空间(无消相干子空间),从而避免错误发生。我们还提出了动力学容错等概念。其中,量子避错的概念由我们在国际上首次提出,目前已在实验中得到应用。

另一方面,无法精确控制量子门操作。理论上,量子门可将不纠缠的粒子变为纠缠态,但实际操作存在误差,难以实现百分之百的理想纠缠,计算过程中会引入并扩散错误,导致结果不准确,且错误难以追踪。解决方法需实现容错操作,即每一步操作后及时纠错,避免错误累积。容错原理理论上解决了计算错误问题,但要求每步操作错误率低于一定阈值(如成功率需达99.999%)。实现如此高的精度是一大挑战,AI技术有助于寻找容错阈值要求更低的方案。

以上是第二部分。量子计算机与经典计算机一样,旨在计算复杂函数。输入和输出均为经典数据,区别在于中间处理过程采用量子芯片,从而提升运算速度。其核心仍是算力。期望的最终形态是:用户只需输入问题,计算机能自动生成算法,通过指令系统操控芯片上的量子比特完成计算,最终输出经典结果。

 

那么,采用何种物理体系实现量子计算机?初期对此认识不足,普遍类比经典计算机,认为量子比特类似经典比特,处于确定状态。经典计算机基于CPU结构,量子计算机则基于量子比特构建量子CPU。根本区别在于运行逻辑:串行与并行。量子计算机的并行能力使其算力呈指数增长,其相对于经典算力的提升,堪比经典算力相对于算盘的时代跨越。如果当前信息社会进入通用量子计算机时代,世界将发生翻天覆地的变化。实现此目标,需将量子芯片、控制系统、软件、服务平台等全部量子化,才能投入系统性实际应用。因此,量子计算机研发的最大困难在于克服消相干和实现高效纠错。

 

4 量子计算机的发展历程与全球进展

回顾发展历程,1999年,超导量子比特的相干时间仅约2纳秒,必须在如此短的时间内完成计算,导致学界普遍认为其难以实用。科学家曾一度悲观,因无法规避消相干问题。随后,研究重点转向延长超导量子比特相干时间,经过13年努力,至2012年,相干时间被延长至100微秒。

100微秒看似短暂,但关键指标是相干时间内能完成的操作次数。若仅2纳秒,则几乎无法进行有效操作。当相干时间延长至百微秒量级后,美国各大公司敏锐察觉到机遇,因实验表明在此时间内可完成足够多的操作(如上万次),使量子计算变得可行。

此后,全球开始基于超导路线研制实用量子计算机。大量企业投入资源,推动技术快速发展,每年都有新进展。

一个重要里程碑是2016年,IBM报告了全球首个可云端访问的5量子比特处理器,标志着量子计算机首次可供外界使用。

2019年,IBM再次推出20量子比特的商用量子计算机,作为集成系统出售,这是第二个突破点。目前已售出七十多台,比特数约100,但相关技术对中国禁运。

 

尽管受到种种限制,量子计算机终成商品。2019年下半年,谷歌宣称其53量子比特处理器在解决特定随机电路采样问题上,仅需200秒即可完成,而当时最强超算需一万年,由此提出“量子优越性”概念。相关论文在Science发表,引发全球关注,使各国意识到研发量子计算机的紧迫性。

 

但我们需要注意的是其所谓的“量子霸权”源自哪里。IBM公司所展示的量子计算机,其解决的是一个经过特殊设计的、抽象性较强的数学问题,这并不足以有力证明其获得了普适意义上的“量子霸权”,因为该问题本身缺乏实际应用价值。能否高效解决一个抽象的理论问题,并不能直接等价于其全面算力实现了对我们的超越。其次,超级计算中心的实际运算效能与所采用的算法密切相关。此后,我国几位青年研究人员提出了新的算法。计算结果表明,采用新算法后,与IBM量子计算机所耗时长相差不多。这表明,二者在该问题上的计算能力差距并没有那么悬殊。因此,IBM关于“量子霸权”的结论并不完全成立。尽管其量子计算机的算力确实取得了显著进步,但其实际应用价值仍有待进一步验证。

 

无论如何,量子计算进入快速发展期,各国、各企业纷纷投入,技术路径多样,包括超导、原子、光量子等。我国青年科研人员在合肥创立了本源量子,是国内首家量子计算机公司,并取得了多项进展。目前全球有超过100家公司致力于量子计算机研发。

 

5 量子计算机的发展阶段与未来展望

量子计算机发展大致分三个阶段:第一阶段是原型机研制,已实现。第二阶段是“量子优越性”阶段,即在特定任务上远超经典计算机,可作为专用机。第三阶段是量子计算与超级计算融合的“量超融合”阶段,其效率将远超单独使用超算。目前正处于此阶段初期。真正的通用量子计算机需以逻辑比特为计算单元,能解决各类问题。关于“量超融合”的具体实现方案尚无定论,实现时间预测不一,从三年到二十年不等。

但量子计算机发展日益加速,难以精确预言实现时间。例如,IBM采用模块化方案扩展比特数,已声称掌握千比特级处理器。哈佛大学等团队则采用原子体系替代超导,演示了将280个物理比特编码为48个逻辑比特的重要工作。逻辑比特才具实际应用价值,物理比特不能直接使用。当前发展已进入逻辑比特阶段,促使许多团队调整研发路线。例如,原计划十年内实现百万物理比特编码成千逻辑比特的目标,现调整为优先发展逻辑比特技术。我国清华大学段路明教授课题组实现了500多个物理比特的相干操控。国内本源量子公司在云计算平台方面也取得进展,其专利数量曾位居全球前列。

 

我国量子计算机研究(与芯片、人工智能一样)受到美国严厉制裁。我们的实验室位列制裁清单。国内发展较好的本源量子是主要的量子计算机公司,其硬件软件已可用,并售出3台系统。美国禁运关键部件,如维持超导低温环境的稀释制冷机。我们通过自主研发,突破了技术封锁,研制出性能相当的稀释制冷机,并已商品化,出口至俄罗斯等国。2024年初,第三代超导量子计算机“本源悟空”成功发布,集成72个量子比特(含辅助比特共超100个),国产化率约80%。这一进展标志着中国在量子计算机领域的自主发展能力显著提升。该机已开放云端访问,全球143个国家用户曾访问,注册用户约3000万,实际用于解题用户约52万。访问策略为3分钟内免费,超时收费,目前已获得数百万元营收。

 

关于具体应用,报告略作简述,主要可归纳为两方面。量子计算机的优势在于能解决经典计算机难以处理的任务。其一,经典计算机难以破解的密码,量子计算机可能破解。其二,量子计算机最重要的应用之一是人工智能。当前AI发展面临算力瓶颈,更大算力意味着更高能耗。量子计算有望在相同能耗下提供远超经典计算的算力,从而大大降低能耗。因此,经典AI最终将向量子AI发展,即算力和算法均为量子的,但数据暂时仍是经典的。未来发展道路很长,国内已高度重视量子与AI融合。近期在成都召开的第四届量子计算大会有1500人参加,重点讨论了量子与AI的进展。未来,量子计算与人工智能的深度融合,有望引领新一轮科技革命和产业变革。

(整理人: 樊代和, 刘洋)