IBM驳斥谷歌,量子霸权VS量子优势,量子计算离我们还有多远?( 三 )


表面编码 , 量子比特像棋盘一样矩阵排列 。 黑色圆点是存储了信息的量子比特 , 蓝色圆点和红色圆点则是附属的用于纠错的量子比特 , 分别用于探测比特翻转错误和相位翻转错误 。 这种编码形式只需要近邻耦合(图中的绿色菱形块)| 图片来源:Building logical qubits in a superconducting quantum computing system, npj Quantum Information, DOI: 10.1038/s41534-016-0004-0
3 量子霸权:展示量子计算的潜力
回到量子霸权 。 Google采用了一种随机量子电路来展示量子计算的潜力 。 所谓随机量子电路 , 就是在一个量子门的集合中随机挑选一系列的门 , 作用在随机挑选的量子比特上(对于两比特门 , 则随机与它四个近邻的比特之间进行) , 最终的输出是253维的态空间上的一个随机取样(这个说法很绕 , 说白了就是我不管输出结果是什么 , 总之是那么多种可能状态的其中一种) 。
Google团队最多做到53个量子比特 , 1113个单比特门 , 430个双比特门 , 整个算法的周期数[2]最大到m=20 。 作为对比 , Google在德国于利希研究中心超算、目前世界上排名第一的超算Summit , 以及Google云计算服务器上进行了模拟 。 当m=20时 , 因为内存不足 , 计算机已经无法模拟 。 当m=14时 , 进行三百万次采样 , 保真度达到1%需要的运行时间测算下来为1年 。 当m=20 , 达到0.1%保真度所需要的运行时间估计要达到1万年!更令人吃惊的数据是 , 做这个运算需要50万亿核时 , 需消耗1千兆度的电力(我想这还没计入给计算机散热的空调用电)!把整个Google卖掉才有望完成一次这样的计算 。
注释 [2]:为了精确地执行量子算法 , 我们将量子门操作限定在一个个固定时长的时间段内 , 每个时间段就称之为一个周期cycle 。
Summit超级计算机 。 峰值计算能力高达200 petaflops , 比太湖之光的93高出两倍以上 | 图片来源:Micah Singleton/The Verge
值得注意的是 , 量子计算机的运算能力是双指数加速的 , 这就是所谓的内文定律(Hartmut Neven是Google量子AI的头 , 这个定律是以他的名字命名的) 。 量子比特数与算法深度(指能够有效执行的门操作层数 , 算法深度与错误率成反比)将随时间指数增长 , 而量子计算能力又随之指数增长(第一个指数类似于摩尔定律 , 是技术发展的速度 , 而第二个指数是相对于经典计算而言的 , 量子系统提供的态空间维度随比特数呈指数增长 , 因而其组成的纠缠系统复杂度也将呈指数增长 , 带来的计算潜能也随之指数增长) 。 这将是一个无比恐怖的增速!以这种增速发展的话 , 经典计算机显然是望尘莫及的 。
另一个需要注意的地方是:Google用来演示量子霸权的算法是毫无意义的 , 它不解决 , 也压根不打算解决任何问题 。 它的目的是为了展示量子计算的潜力 。 我们需要保持清醒的是 , 量子霸权演示中用到的还是有噪声的物理比特 , 距离用于解决真正意义上的计算问题还有很长的路要走 。
内文定律的提出者Hartmut Neven , 目前是Google量子AI实验室的负责人 | 图片来源:www.wsdm-conference.org
4 量子优势:催生商业价值
几乎是同时 , IBM也向外界发出声音:他们近期会推出53个量子比特的量子云计算服务 。 时间上和数量上都如此接近 , 令人不禁遐想 。 对于量子霸权 , IBM声称他们一直致力于实现“量子优势”:针对真实的应用场景 , 展现出量子计算超越经典计算的能力 。 注意这里的“真实应用场景”几个字 , 言下之意就是 , 量子优势不仅要体现出计算能力的碾压 , 还得是有用的 。 换句话说 , 量子优势的实现 , 将能够催生出商业价值来 。 对于一个追求利益而非理想情怀的公司而言 , 这显然是他们做这件事的原始驱动力 。

推荐阅读