IBM驳斥谷歌,量子霸权VS量子优势,量子计算离我们还有多远?( 四 )


今年3月份 , IBM在《自然》杂志上发表了一篇关于量子机器学习的论文 , 提出两种用于机器学习的量子算法 , 利用多量子比特系统超大的态空间作为机器学习的特征空间 , 实现量子的变分分类器 , 以及估算核函数 。 这两种方法有望在实验上演示并实现“量子优势” 。 与Google的内文定律类似的 , IBM在其博客上发文提出量子时代的摩尔定律:量子体积将以每年翻一倍的速度增长 。 以这一增长速度 , IBM预计将在2020年代实现量子优势 。 在这里 , IBM定义了一个“量子体积”的指标 , 这是一个与活跃量子比特数及错误率相关的参数——量子比特数越多 , 同时错误率越低 , 则量子体积越大 。 这与内文定律中的双指数是类似的概念——量子体积随时间指数增长 , 而量子计算能力随量子体积指数增长 。
如果IBM实现量子优势 , 其部署的多台量子计算云平台将很快可以产生商业价值 。 或许这正是IBM当前布局的良苦用心吧?
量子计算能力的“Moore定律” 。 | 图片来源:IBM Research Blog
可见 , 量子优势与量子霸权相比 , 不是简单的换个概念 。 量子霸权是一个“里程碑”式的进展 , 它无疑给科技界、工业界注入了极大的信心 , 不过它仍是漫漫征程中的一小步 , 它并不能带来真正的商业价值 , 而正是这一点 , 是量子计算能否顺利获得持续的、滚雪球式的资本青睐的关键 。
量子优势就是这个关键节点 , 没有人能预测它在什么时候到来 , 因为要寻找一个有实际价值的量子算法并演示出来 , 实在不是一件容易的事 。 不过我们完全应该保持乐观 。 比尔·盖茨说过:大多数人会夸大近一两年的变化 , 而低估未来十年的变化 。 回望十年前 , Transmon量子比特(也就是现在大家普遍采用的比特单元)才刚刚提出来 , Google量子计算的扛把子John Martinis还在玩相位量子比特 。
最后 , 量子霸权一出 , 势必会影响国内各量子计算研究组和公司的研究策略 , 也会影响国家量子技术发展的布局 。 这步棋 , 硬着头皮也要跟 。 作为局内人自然是倍感压力 , 不过 , 给自己 , 也给同行一句建议:保持清醒 , 尊重科研规律 。
后 记
本来已经定稿了 , 结果又有了“最新进展”:10月21日 , IBM在arXiv发表的一篇预印本论文称 , Google在用经典计算机模拟的时候优化不够 , 导致过高的估计了经典计算的开销 。 按照他们最新的估算 , 对于同样的任务 , 一个优化后的模拟计算仅需要2.5天!从这个角度来讲 , Google的“量子霸权”就不是真正的霸权了 , 因为根据其提出者John Preskill的原意 , 量子霸权必须是量子计算机能做而经典计算机不能做的 , 2.5天显然不长 , 毕竟去拉斯维加斯度个周末就算完了 。
IBM的一个主要论点是:Google在估计经典计算的开销时 , 只考虑了超算的并行性和超大的内存 , 这导致了超过40个量子比特之后薛定谔型模拟无法存储完整的量子态 , 只能回退到薛定谔-费曼型模拟 , 以时间换空间 。 事实上 , 经典计算机还有很多其他资源可用 , 比如硬盘!采用内存和硬盘的混合存储方案 , 就可以直接处理薛定谔型模拟 , 加上很多其他的优化方法 , 并在CPU和GPU混合节点上进行计算 , 53个量子比特 , 同样的随机量子电路模拟仅需2.5天 , 即便是54个量子比特 , 也只要6天 。
这篇预印本论文尚未经过同行评议 , 相信在后续几天里会得到不少专家的评论 。 笔者大致浏览了一下论文 , 表示基本看不懂 , 能得到的就是上述这些信息 。 此外 , 这是一篇纯算法分析的论文 , 尚未真正在超算上跑(这么短的时间 , 应该代码也没写出来) , 还不算“实锤”砸碎Google的量子霸权梦 。 从态度上来讲 , 这种论文和论点是正向的、严谨的、有必要的 , 不过一放到Google和IBM互争量子计算头花的竞赛背景中 , 居然就有了种戏剧性的感觉 。 此事且待后续各路大神的评论吧 , 笔者这里先mark一下 。

推荐阅读