一台量子计算机能完成多复杂的计算任务,取决于其所包含的量子比特。
近期,美国IBM和Atom Computing公司相继推出了1000量子比特甚至超1000量子比特的设备,这几乎是以前最大量子计算机包含量子比特的3倍。
但上述突破没能立即显著提高量子计算机的计算能力,因为包含更多量子比特的计算机,产生的错误会更多。
为了研发一台能够纠错的量子计算机,美国量子计算初创公司QuEra的研究人员及合作者,专注于增加计算机逻辑量子比特数量。最终,团队研发出了有史以来逻辑量子比特最多的计算机。相关研究近日发表于《自然》。
为何QuEra的研究人员将目光聚焦于逻辑量子比特?因为与标准量子比特不同,逻辑量子比特能够更好地在不受误差的影响下进行计算。这使该新设备成为迈向实用量子计算的重要一步。
研发团队成员、美国哈佛大学的Dolev Bluvstein指出,传统计算机纠错,依赖于保留信息的多个冗余副本。但量子信息无法复制,于是他们通过量子纠缠使信息在几个量子比特间传播,从而实现了类似的冗余。
QuEra研究团队从一个真空箱内的数千个铷原子入手。他们使用激光和磁力将原子冷却到接近绝对零度的温度。在该条件下,它们的量子特性最为突出,研究人员可以通过再次用激光照射原子,精确控制原子的量子态。
研究人员利用上述方法,首先创建了280个量子比特,然后利用激光脉冲让其中的一组量子比特纠缠在一起,变成一个逻辑量子比特。最终,研究人员能够一次制造多达48个逻辑量子比特。这是以前创建逻辑量子比特的10倍多。
这种方法使QuEra的计算机不同于其他公司制造的量子计算机。QuEra的量子计算机通过用激光束形成的光学“镊子”让量子比特相互靠近,使其相互作用、交换信息。而像IBM、谷歌等研发的基于芯片的量子计算机,必须使用多条导线来控制每个量子比特。
Bluvstein等人在新计算机上实现了几种计算操作,运行了几种代码和算法,以测试逻辑量子比特的性能。他指出,尽管这些测试比量子计算机最终要进行的计算要初级,但使用逻辑量子比特产生的错误比使用物理量子比特计算产生的错误要少。
尽管,按照研究人员的预测,完全容错或无错误的量子计算机需要数千个逻辑量子比特支撑,但许多相关专家学者表示,Bluvstein等人获得的突破,无疑使相关研究向前迈出了一步,而且随着基于原子的计算机的快速进步,研究人员必然会取得更多进展。
(责编:赵珊)