哈佛 MIT 合作推进三十年难题:448 量子比特架构实现关键纠错能力,为潜在的量子飞跃奠定基础

抖音秀 热点资讯 4

11 月 17 日消息,量子计算的核心难题在于量子纠错 —— 如何在极易出错的量子比特中检测并移除错误。哈佛大学研究团队开发出了一套能够将错误抑制至关键阈值以下的系统。

相关成果已于 11 月 10 日发表在《Nature》上,被视为迈向可实用量子计算的重要一步。


此次合作由哈佛大学和麻省理工学院共同领导,团队成员来自 Harvard-MIT 实验室孵化的初创公司 QuEra Computing、马里兰大学联合量子研究所以及美国国家标准与技术研究院等机构。

哈佛量子科学与工程项目联合主任、论文主要作者 Mikhail Lukin 表示:“我们首次在一个集成架构中结合了可扩展、容错量子计算所需的全部关键要素。这些实验是目前任何量子平台上最先进的成果之一,为构建实用的大规模量子计算奠定了科学基础。”


论文被视为量子纠错三十年探索中的一次关键进展。Lukin 表示:“归根结底,物理是一门实验科学。只有在实验室中实现并检验这些基本概念,才能真的看到隧道尽头的光。”

在这项研究中,科研人员构建了一个包含 448 个原子量子比特的“容错”系统,并通过多种技术组合操控它们以实现错误检测与纠正。核心机制包括物理纠缠、逻辑纠缠、逻辑魔术以及熵移除,系统还利用了“量子隐形传态”技术,即在无物理接触情况下,将一个粒子的量子态传输到另一个粒子上。

论文第一作者、现任加州理工学院助理教授的 Dolev Bluvstein 表示:“距离构建拥有数百万量子比特的大规模量子计算机仍有很多技术挑战,但这是首次出现概念上可扩展的架构。要实现它仍需大量努力与技术发展,但我们已经越来越清楚地看到,构建容错量子计算机是可行的。”

量子计算与传统计算的差异在于其运算单元。经典计算机使用比特,量子计算机则使用量子比特(qubit),由于量子纠缠的存在,量子比特数量增加会带来指数级的处理能力提升。理论上,300 个量子比特的信息量就超过已知宇宙中粒子的总数。如此巨大的潜力使量子计算有望推动药物开发、密码学、机器学习、人工智能、金融和材料科学等领域的突破。然而,量子比特极易失去量子态,导致错误率成为量子计算的核心障碍,因此纠错能力至关重要。

在这项研究中,团队结合多种方法构建了包含数十层纠错的复杂量子电路,使系统能够将错误抑制到关键阈值以下 —— 即新增量子比特能够进一步降低错误率,而不是带来更多错误。

论文作者之一、哈佛大学 Kenneth C. Griffin 研究生院物理学博士生 Alexandra Geim 指出:“本研究重点在于理解扩展可规模化、深度电路计算所需的关键机制。通过理解这一点,我们能够去除不必要的部分、减少开销,更快进入实用区间。”

研究团队使用的是中性原子量子比特,即利用无电荷的铷原子,在激光作用下调整电子排布,使其编码成量子比特。全球研究团队正在探索不同的量子比特平台,包括各种原子、离子和超导体系。谷歌 Quantum AI 团队工程副总裁 Hartmut Neven 称这项研究在各平台激烈竞争的背景下“代表着向共同目标迈出的重要一步”。

今年 9 月,Harvard-MIT-QuEra 团队在另一篇发表于《Nature》的论文中展示了一个超过 3000 个量子比特的系统,能够连续运行两小时以上,并克服了原子流失的技术难题。随着一系列进展,Lukin 认为构建量子计算机的核心要素正在逐步到位。“几十年来我们怀抱的大梦想,现在首次真正变得触手可及。”

附论文地址:https://doi.org/10.1038/s41586-025-09848-5