为什么量子计算机的计算能力如此强大?实际上, 我们很难精确地给出一个定性的回答, 因为科学家们难以精确解释量子力学的含义 。 量子理论的方程确实表明, 至少在大多数因式分解和数据库搜索上, 量子计算的运行速度相比传统计算机有了极大提高, 但这到底是如何提升的却依然未知 。
也许最保守的说法应该是, 量子力学创造了一种传统计算机所没有的“计算资源” 。 正如来自于加拿大滑铁卢圆周理论物理研究所的量子物理学家丹尼尔·戈兹曼(Daniel Gottesman)所说, “计算中应用了足够多的量子力学, 计算速度就会极大提高 。 没有用够, 就没有提高 。 ”
不过有些事情是清楚的, 在进行量子计算的时候, 你必须确保所有的量子比特处于相干态中 。 这是一个十分困难的要求, 因为量子相干系统会与它们周围的环境相互影响, 使得相干性迅速衰减, 也就是“退相干” 。 研究者们所建造的量子计算机必须拥有能延缓“退相干”的能力, 而目前相干性最多只能保持不到一秒 。 随着量子比特数量的增加, 保持相干态将变得越来越难, 因为越多的量子比特数意味着系统越容易和周围环境相互影响 。 这也在很大程度上解释了, 为什么 1982 年费曼就提出了量子计算的概念, 其基础理论也在 90 年代早期逐渐成熟, 但是直到最近才出现能实际进行计算的设备 。
干扰和错误
实现量子计算还面临着一项基础性困难 。 和自然界的其它过程一样, 噪声干扰无处不在 。 随机波动、来自量子比特的热能、甚至基本的量子物理过程都可能会改变量子比特所处的状态, 进而干扰到量子计算 。 这同样也是影响传统电子计算机运算的一个问题, 不过解决办法比较简单有效:只要给每个比特位备上多个副本, 这样出现错误的那一个就会十分明显, 立刻被发现 。
量子计算的研究者们找到了一些解决噪声的办法 。 但是这些办法都需要消耗巨大的、甚至所有的计算能力, 用于纠错而不是运行你所需要的算法 。 安德鲁·柴尔兹(Andrew Childs), 马里兰大学量子信息和计算科学联合中心的主任之一评论道, “目前的编码错误率严重限制了量子计算的复杂程度 。 如果我们想用量子计算机做一些有意思的事情, 那在这方面必须做到更好 。 ”
很多关于量子计算基础理论的研究都集中到了编码纠错上来 。 这个领域的部分困难来源于量子力学的另外一个基本特性:观测会破坏量子比特所处的叠加态, 而使其坍塌到一个具体的值—— 0 或 1 上 。 那么问题来了:如果你不能测量一个量子比特所处的状态, 你如何能够发现它出错了?
一个十分精妙的办法就是将量子比特和另一个“附属比特”联系起来, 而附属比特并不直接参与计算过程 。 如此一来, 就可以通过测量“附属比特”来得到主比特的信息, 同时不会引起主比特的坍塌 。 但理论不等于实际 。 采用这种办法, 即建造一个能够完成自我编码纠错的“逻辑量子比特”, 意味着你会需要很多个实际的量子比特 。
到底需要多少个?来自哈佛大学的量子物理学家阿兰·阿斯普鲁古兹克(Alán Aspuru-Guzik)预计在现在的技术水平下大约需要上万个实际量子比特才能建造一个“逻辑比特” 。 这是一个天方夜谭的数字 。 当然他也承认, 随着技术进步, 这一数字会大大减小, 降低到只需要几千个甚至数百个 。 德国柏林自由大学的埃斯特则没有那么悲观, 认为现在大约 800 个量子比特就能够构建一个逻辑量子比特 。 不过即便如此, 他也同意“自检负担还是太重 。 ” 当下, 我们还是需求寻求新的办法去处理这些容易产生编码错误的量子比特 。
推荐阅读
- 我国学者研究“多节点量子网络”取得基础性突破
- 推翻时间箭头:量子计算机或将改变时间向前流动方向
- 给纠缠态“做个CT” 让未来量子网络更安全
- 首台基于三维芯片的光量子计算系统问世
- 为什么量子通讯绝对安全?随机数是关键
- 5G通信与人工智能、计算三者将相辅相成
- 人工量子系统中量子纠缠新途径被发现
- 时间“倒流”首次在量子计算机上实现
- 新型绝缘体有望让计算机芯片更小
- 用魔幻光强技术 让原子量子比特变“乖”
