在逐步改进的处理器上,实现了逻辑量子比特,每次升级时物理量子比特的数量翻倍,且处理器规模逐渐增大。红色和蓝色方块表示用于检测附近错误的奇偶性检查。这些处理器分别能够可靠地执行大约50次、10⊃3;次、10⁶次和10⊃1;⊃2;次循环以当前的物理错误率来看,要实现相对适中的编码错误率(10⁻⁶),我们可能需要每个表面码网格使用超过一千个物理量子比特。目前,所有这些都是在一个拥有105个量子比特的处理器上实现的。那么,我们是否能够在拥有1000个量子比特的处理器上实现相同的性能?如果是拥有一百万个量子比特的处理器呢?虽然面临的工程挑战是前所未有的,但进展也令人瞩目。毕竟,量子纠错所带来的改进是指数级的。自去年以来,谷歌的编码性能已经提升了20倍——还需要多少个这样的20倍,才能运行大规模的量子算法?或许,答案比我们想象中要少得多。参考资料:https://research.google/blog/making-quantum-error-correction-work/https://blog.google/technology/research/google-willow-quantum-chip/摘要:在逐步改进的处理器上,实现了逻辑量子比特,每次升级时物理量子比特的数量翻倍,且处理器规模逐渐增大。红色和蓝色方块表示用于检测附近错误的奇偶性检查。这些处理器分别能够可靠地执行大约50次、10⊃3;次、10⁶次和10⊃1;⊃2;次循环以当前的物理错误率来看,要实
来源:小陈的科学讲堂
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!