IBM驳斥谷歌,量子霸权VS量子优势,量子计算离我们还有多远?( 二 )


说到量子纠错 , 也许很多人并不能立刻感受到其重要意义 。 在现有技术下 , 所有的量子比特或多或少都是存在噪声干扰的 , 我们将这种有噪声的量子计算单元称之为“物理比特” 。 但是 , 要实现一些有用的量子算法 , 比如著名的 Shor 算法(就是那个那个……能破解密码的那个) , 对错误率的要求高得多 , 直接用物理比特是不可能的 。
那怎么办呢?唯一的办法就是利用量子纠错 , 用一大堆有噪声的物理比特 , 通过适当的编码形式 , 来表示一个比特的信息 。 我们把这种量子比特称之为“逻辑量子比特” 。 将信息编码到更大的空间中去以确保信息不易丢失是通信中最常用的手段 , 比方说两个人打电话 , 电话线上有噪音导致听到的声音断断续续 , 要想确保对方听到 , 我们常常会说:“对对对对对 , 对对对对对 , 就是它 , 就是它 , 对的 , 是的……”这样即便对方漏听了几个对 , 还是会听到不少的对 , 然后就能确认是对了 。
比较麻烦的是 , 量子世界与经典世界还有一个重大的区别:观测会导致量子态发生非幺正演化 , 迫使量子态投影到某一个与观测相关的算子的本征态上去 。 说人话就是 , 如果我们直接去看一个量子比特 , 这个量子比特的状态就会发生改变 , 最终展现给我们的不会是它原来的样子 。 更可恨的是 , 这种改变是不可逆的 , 看过之后就再也回不去了——某些信息彻底丢失了 。
所以我们显然不能这样进行量子纠错 。 好在我们可以将一个量子比特与很多其他量子比特纠缠起来 , 然后只去看那些不包含信息的比特 。 在这种情况下 , 尽管测量得不到信息 , 但测量结果可以指示奇偶性的变化 , 从而给出“错误症候” , 就像中医的“望闻问切” , 一旦发现印堂发黑 , 就知道病入心肺 , 赶紧开药治病救人 。 正因为测量不获取信息 , 所以也就不破坏信息 , 但我们却得到了错误症候 , 知道是哪个比特出错了 , 也就知道怎么纠错了 。 这就是量子纠错的基本思路 。
Shor提出的量子纠错编码 , 需要9个量子比特来编码一个逻辑量子比特 。 看不懂不要紧 。 | 图片来源:Quantum computation and quantum information , Michael A. Nielsen&Isaac L. Chuang, Cambridge University Press, §10.2
量子纠错的编码方式有很多种 , 但不管什么样的方案 , 对单个物理比特的错误率都有一个基本要求 。 早年的编码方案 , 如CSS码、Shor编码等 , 对物理比特错误率的要求仍非常之高(大约为10-6 , 即一百万次中错一次) , 目前最好的物理量子比特距离这个要求还有两个数量级之差 。
后来 Alexei Kitaev 提出了基于拓扑方法的表面编码[1] , 这一编码形式采用二维矩阵形式排列量子比特 , 比特之间只需要近邻耦合 , 它对错误率的阈值要求大约是0.75% , 一千次里错7次就满足要求 。 这极大地降低了技术要求 , 现有的实验方案 , 比如超导量子电路已经达到了这一阈值要求 , 量子纠错在技术上成为了可能 。 不过 , 表面编码是有代价的——它需要极高的开销 。 以Google的量子比特为例 , 目前的技术水平 , 如果想达到求解Shor算法的要求 , 需要约3600个物理比特来编码一个逻辑比特 。 想想现在才刚刚超过50个 , 这个要求也是相当高的 。 当然 , 还有很多其他很有潜力的编码形式 , 比如耶鲁大学主推的玻色编码方案 , 鉴于其偏离主题 , 在这里就不展开来讲了 。
注释[1]:最早Kitaev的方法是环面码 , 后来发现环面几何结构不是必须的 , 于是Bravyi和Kitaev进一步发展为表面码 , Freedman和Meyer也给出了一种平面码并证明这两种码是同构的 。

推荐阅读