量子计算错误率创最低纪录 或催生更小更快的计算机
军工资源网 2025年08月29日据美国趣味科学网站7月28日报道,科学家实现了有史以来最低的量子计算错误率,朝着克服实用化、公用事业规模量子计算机研发过程中的根本性挑战迈出了重要一步。
在美国物理学会《物理评论快报》周刊6月12日刊登的一份研究报告中,科学家证明实现了0.000015%的量子计算错误率。这相当于每670万次运算仅出现一次错误。这一成就意味着,准确性和速度都比之前的纪录提高了近一个量级。之前的纪录是同一团队在2014年创下的,为每100万次运算仅出现约一次错误。
量子运算中错误(或称“噪声”)的盛行可能导致量子计算机的输出内容变得无用。
这种噪声有多个来源,包括控制方法的缺陷(本质上是计算机架构和算法的问题)以及物理学定律。因此,科学家将大量精力投入量子纠错领域。
虽然与自然定律相关的错误,例如退相干(量子态的自然衰减),只能在这些定律的框架内减少,但该研究团队是通过将计算机架构和控制方法产生的噪声降低到近乎零来取得上述成就的。
英国牛津大学物理学研究生、该研究报告的共同第一作者莫莉·史密斯在一份声明中说:“通过大幅降低出错概率,这项工作显著减少了纠错所需的基础设施,为未来量子计算机变得更小、更快和更高效开辟了道路。对量子比特的精确控制也将对开发其他量子技术(例如时钟和量子传感器)有帮助。”
该研究团队在实验中使用的量子计算机依赖一个定制平台,该平台摒弃了以光子作为量子比特(量子比特是量子计算中的基本单元)的更常见架构,而是采用由“离子阱”构成的量子比特。
这项研究还是在室温下开展的。研究人员称,这简化了将该技术集成到实际的量子计算机中所需的设置。
大多数量子系统要么部署依赖“量子点”的超导电路,要么使用激光(通常被称为“光镊”)将单个光子固定在适当位置以作为一个量子比特运行。而该研究团队使用微波将一系列钙-43离子困在适当位置。
采用这种方法后,离子被置于超精细的“原子钟”状态。研究报告显示,这项技术让研究人员可以创建更多的“量子门”,其数量类似于一台计算机所能执行的“量子运算”的数量,且准确度比基于光子的方法更高。
一旦离子被置于超精细“原子钟”状态,研究人员就通过自动控制程序对离子进行校准。该自动控制程序定期校正微波控制方法引起的离子振幅和频率漂移。
换句话说,研究人员开发了一种算法,来检测和校正用于捕获离子的微波所产生的噪声。通过消除这种噪声,研究团队就可以在他们的系统中以物理上可能的最低或接近最低的错误率进行量子运算。
利用这种方法,现在可以开发出能够大规模进行单门运算(用单量子比特门而非多量子比特门进行的运算)且错误近乎零的量子计算机。
这意味着,用“离子阱”架构构建量子计算机的工程师和开发可在这样的量子计算机上运行的算法的开发人员,无需将那么多量子比特专门用于纠错。
研究人员在声明中称,通过减少错误,新方法可以缩减所需的量子比特数量,以及量子计算机本身的成本和尺寸。
不过,这对业界来说并非万能药,因为许多量子算法需要多门量子比特与单门量子比特协同工作或由单门量子比特组成,才能执行超出基本功能的运算。双量子比特门功能的错误率仍然约为两千分之一。(编译/马丹)