量子计算的春天,来了吗?
本文来自微信公众号:中国工程院院刊 (ID:CAE-Engineering),原标题《量子计算研究现状与未来发展》,作者:李晓巍、付祥、燕飞、钟有鹏、陆朝阳、张君华、贺煜、尉石、鲁大为、辛涛、陈济雷、林本川、张振生、刘松、陈远珍、俞大鹏,题图来自:《蚁人》
量子计算乃至更为广泛的量子信息,是基于量子力学原理发展出来的概念与技术体系,涉及信息的本质及其处理。量子计算利用量子叠加、量子纠缠等资源进行信息编码和处理,已被证明在若干问题上具有相对于经典计算的极大优势,在实用化后将对信息及相关科技产生深远影响。
近日,中国科学院俞大鹏院士研究团队在中国工程院院刊《中国工程科学》2022年第4期发表《量子计算研究现状与未来发展》一文。文章概要回顾了量子计算的发展历史,如量子计算思想与概念的形成、重要理论及算法的发展以及应用情况;梳理总结了代表性的量子计算技术路线及其发展态势,如超导量子计算、分布式超导量子计算、光量子计算、囚禁离子量子计算、硅基量子计算及若干其他体系。着眼不同技术路线面临的共性问题,文章对我国量子计算领域未来发展提出建议:注重战略规划和布局,培养高水平研究团队,加强基础研究及核心技术、关键设备的自主研发。?
一、前言
近年来,发达国家、高科技公司高度重视量子计算,制定长远发展规划并投入重要资源以推动技术发展。伴随着量子计算技术的一系列标志性进展,世界各国对量子计算的关注从学术界逐渐扩展到全社会。
量子计算已经成为内涵丰富的技术领域,涉及内容从最前沿的数学、物理等基础研究延伸到与诸多工程学科的交叉融合,再到高度工程化的应用技术开发,高速发展势头不减。因此,系统探究量子计算领域全貌极为困难,而深入了解其各个方面则几乎不可能。立足量子计算显著进步的历史节点,对相应发展的历史和现状进行相对全面的梳理与总结,同时就领域未来发展进行思考和展望,既富有价值,也是更好推动我国量子计算领域发展的必然环节。
量子计算乃至更为广泛的量子信息领域,是基于量子力学原理发展形成的一套关于信息本质及其处理的概念和技术体系。量子计算思想及概念的形成经历了相当长的时期。一些物理学家、数学家受不同动机驱动而开展的基础研究,对量子计算发展起到过关键性的推动作用。至少在量子计算的发展早期,这一领域的基础逻辑与摩尔定律失效、计算能力提升等并无密切关系;了解这一点有助于正确看待量子计算的历史,也为如何推动未来发展提供了更深刻的视角。
物理学家Feynman、数学家Manin都曾指出,由于量子叠加、量子纠缠的存在,经典计算无法对量子体系进行高效模拟;Feynman进一步提出了利用可控的量子计算机去高效模拟待研究量子体系的可能性。1994年,数学家Shor提出了大数质因数分解的Shor量子算法;这是第一个具有明确目的且应用价值突出的量子算法,对当今最优秀的公开密钥方案之一(RSA公开密钥密码)构成了威胁。
早期的量子计算技术路线包括核磁共振、超导量子线路、半导体量子点、囚禁离子阱、冷原子等,研究者在这些平台上先后实现了量子比特及其精确操控;在一些比较成熟的平台上(如核磁体共振),研究者甚至很快展示了小规模的量子算法。
然而,当时学术界对于量子计算的可行性依然有很多质疑,特别是能否有效克服退相干造成的量子信息丢失。随后,量子计算发展的里程碑是量子纠错理论的建立。Shor和Steane独立提出了量子纠错码概念,其基本原理和经典纠错类似,都是基于冗余编码思想;基于量子纠错码,Shor提出了在含噪量子体系中构建容错量子计算的框架。
1997年,Kitaev发现了量子纠错和拓扑物态之间的关系,指出后者受拓扑保护的简并态可用作逻辑比特;Kitaev和Bravyi提出的表面编码,成为第一个受拓扑保护的量子比特模型;2001年,Kitaev和Preskill等进一步指出,如果能够实现低于1%的所谓容错阈值,则可以用表面编码进行量子纠错,此即后来成为量子纠错主流技术的表面纠错码。这一系列工作为实现可容错量子计算确立了理论基础。
自Feynman等提出量子计算的原始思想至今已有40多年,相应进展令人瞩目;但不可否认的是,依然没有实现量子计算的任何实际应用。关于量子计算应用,学术界普遍认为:量子计算并不能全面替代经典计算;量子计算本身具有很多的限制;原则上经典计算可以替代量子计算,二者区别主要在于效率的高低。
合理估计,在实现可容错通用量子计算之前的很长一段时间内,我们都处在“中等规模含噪声量子”(NISQ)时代;量子计算的主要用途是为基础物理研究以及发展更为高级的量子操控技术提供一个平台。尽管这种应用和研究者心目中的实用化量子计算相去甚远,但仍具有鲜明的意义。
因此,就目前理解的量子计算而言,量子体系模拟依旧是量子计算的主要用途。可以合理推测,在量子体系模拟的基础上将会衍生出服务于药物开发、新材料、农业等领域的量子计算技术,但应清楚认识到这些衍生应用是遥远的可能性(而不是已经或即将实现的技术)。
综合而言,对于量子计算发展需有清晰的大局观:前途一定光明,但道路必定曲折。一方面,应保持乐观的态度:在非常基础的层面上改变了我们世界观的科学理论,其技术化应用必然也是革命性的;但另一方面,越是颠覆性的技术,越难在实用化前进行具体预期。量子计算和现有的信息技术存在极大的不同,很难预言量子计算技术的长期影响;量子计算领域的进步不会是简单的线性历程,应尽量避免基于现有技术和进展的线性外推来预判其长远发展。
本文由10个章节构成。第一节简要介绍量子计算的基本概念、思想源头、历史 / 现状 / 趋势,第二节讨论量子计算的理论、算法和应用;第三节讨论量子软件与控制体系结构;第四到第八节讨论5个代表性的量子计算技术路线(超导量子计算、分布式超导量子计算、光量子计算、囚禁离子阱量子计算、硅基量子计算),其中正在蓬勃发展的分布式超导量子计算可能对未来实现大规模量子计算非常关键;第九节讨论其他类别的量子计算技术路线(中性原子、金刚石氮空位色心、核磁共振、自旋波、拓扑量子计算);第十节给出有关我国量子计算领域发展的一些思考和建议。
二、量子计算的理论、算法与应用
(一)理论与算法
回顾40多年来的量子算法发展历史,大致可分为4个阶段:
① 1985~1992年,寻找示例型算法以展示量子计算的优越性;
② 1993~1994年,寻找实用性算法以展示量子优越性;
③ 1995年至今,寻找量子算法以拓展量子计算的适用范围;
④ 2013年至今,开发面向NISQ时代量子处理器的量子算法,寻求量子计算的实用化。
在Feynman提出量子模拟之后不久(1985年),Deutsch将这一思想数学化地表达为量子图灵机,进而提出了第一个量子算法,展示了量子计算在简单决策问题方面相比经典计算的优势,与量子图灵机等价的计算机可称为为量子计算机;随后Deutsch提出了在物理实现上更加可行的量子线路模型。1993年,Yao证明了量子线路模型与量子图灵机的等价性,量子线路模型随后成为通用量子计算机的标准模型。1993年,Bernstein和Vazirani提出了通过一次调用量子黑盒查找二进制串的算法;更为重要的是,建立了量子计算复杂性理论,从理论上证明量子计算机在解决某些问题时比经典计算机更为高效。
1994年,Shor提出了量子傅里叶变换算法和离散对数算法,进而获得质因数分解算法。Shor质因数分解算法是第一个具有实用价值、相比已知最优经典算法具有指数加速性能的量子算法,极大推动了学术界对量子计算研发的关注与投入。1995年Kitaev等提出的相位估计算法后成为许多量子算法的关键组成部分。1996年,Grover提出了查找算法,可在无序集合查找问题上获得相较于经典计算的平方级加速性能。1996年,Lloyd参考Suzuki、Trotter等的工作,提出了局域哈密顿量模拟算法,从而确立了量子化学模拟的基础。
2009年,Harrow、Hassidim和Lloyd提出了将相位估计应用于线性系统求解的HHL算法。2011年,Panella和Martinelli等提出了量子神经网络。HHL算法、量子神经网络明确了量子计算在人工智能(尤其是机器学习)领域的应用前景。谷歌公司研究表明,量子机器学习是近期取得量子优越性的关键候选应用。2013年,哈佛大学研究团队提出了变分量子特征值求解算法(VQE),使得NISQ时代的量子处理器进行量子化学模拟成为可能。2016年,Farhi等基于VQE算法提出了量子近似优化算法(QAOA),用于量子计算加速组合优化问题的求解。
上述算法显著扩展了量子计算机的应用范围,使量子计算机在数据快速搜索与排序、量子化学模拟、人工智能与机器学习等诸多领域表现出可观的潜力。寻求可在NISQ时代的量子处理器上运行、能够解决实际问题的算法,是当前量子计算领域的核心研究问题。
(二)潜在应用
量子化学模拟是量子计算重要的潜在应用之一。当前的计算化学方法所需资源随着待研究系统的规模增大而呈指数增长。针对这一问题,研究者尝试设计更高效的量子化学模拟算法,如利用量子相位估计、VQE算法来计算分子基态及其能量。VQE算法所需的资源相对较少,具有一定的抗噪声能力,将在NISQ时代发挥重要作用。
当前的量子化学模拟研究聚焦于在实际量子硬件上模拟更大的分子体系,实现对氢化铍、水等分子的模拟,在经典模拟器上对乙烯、氰化氢等分子的模拟是主要的成果。虽然这些成果展示了VQE算法的普适性和可行性,但距离体现量子计算优越性尚有距离。后续,在提升量子计算硬件性能的同时,不断改进算法(如设计更好的变分拟设、使用更合适的参数化和优化方法等),以发展出具有实用价值的量子化学模拟算法。
QAOA算法作为浅层的变分算法,用于近似求解组合优化问题,适合在NISQ时代的量子硬件上执行。在QAOA提出之初的基本思路是将绝热演化算法离散化,之后QAOA与量子行走之间的联系获得明确,从而更新了对QAOA的理解。除了处理组合优化问题,QAOA也应用于求解线性方程组、构建变分量子搜索算法等。研究者提出了一系列加速QAOA经典优化的方法,分为启发式初始化、机器学习辅助优化两类。此外,关于QAOA是否具有潜在的量子优势以及其可训练性,还需深入研究。
量子机器学习将机器学习与量子体系结合,研究内容分为经典机器学习在物理系统中的应用、基于量子神经网络的经典机器学习算法设计及实现两个方向。经典机器学习面临的挑战之一在于数据量、计算量逐渐逼近经典计算模式的极限,而量子体系或量子算法具有完全不同于经典计算的学习范式,因而传统机器学习在量子体系中的实现为突破经典极限提供了可能性。相关研究成果包括量子主成分分析、量子卷积神经网络、量子光学系统中深度学习网络的实现、量子生成对抗网络等。目前存在的问题突出表现在深度学习运行机制的有效理论阐释缺失、量子计算潜力的探索及挖掘。
三、量子软件和控制体系结构
量子软件和控制体系结构是连接量子算法与量子物理系统的“桥梁”,也是构成量子计算系统的关键环节。量子算法用于设计量子计算机解决具体问题的流程,需使用量子程序设计语言来描述;经量子编译器翻译并优化,生成可在硬件上执行的底层格式程序,如量子汇编、二进制与波形数据等。量子测控系统执行底层格式程序并生成相应信号,实时控制量子比特,完成量子门操作及测量。量子控制体系结构指量子测控系统的组织方式及其软硬件接口。
(一)量子软件
量子程序设计语言研究始于1996年Knill提出的量子随机访问机器模型,后续基于该模型得到了量子程序的伪代码表示。计算机科学家研究了量子算法的特点及执行要求,不断完善量子程序设计的各种理论基础,如量子程序的基本结构和语义规范、量子程序的形式化验证、量子递归、反计算、量子 - 经典协同计算等。在量子程序设计理论的指导下,量子软件工程稳步发展,催生出一系列量子程序设计语言。每一门量子语言都对应有量子编译器,二者协同发展,逐步支持经典逻辑综合、量子门分解、自动求逆、量子反计算、层次化的量子线路描述、量子 - 经典混合编程、基础量子实验表达能力等功能。
目前,生态环境良好的量子程序设计语言有Qiskit、Q#、PyQuil、PennyLane等。在编译器方面,Qiskit转译器吸引了众多开发者的反馈,不仅支持量子编译的基础功能(如量子比特的映射与调度、量子门分解等),还支持面向特定领域的编译优化(如量子化学模拟)。QCOR语言在支持量子 - 经典混合编程、多种前端 / 后端以及跨语言转换方面富有特色。
国内的量子程序设计语言有QPanda、Quingo、isQ等。在量子编译器领域,使用多层次中间表示(MLIR)作为核心基础设施方兴未艾,Quingo、isQ语言均基于MLIR来开发编译器。吸引更多的用户和开发者、提供更丰富的库及支持工具来构建量子软件生态环境,是当前各种语言开展应用竞争的重点。
(二)量子控制体系结构
量子软硬件接口旨在提供全面、灵活的软件编程方式,进而支持量子应用在测控系统上的执行(面向上层软件)。量子测控系统的组织方式关注电子学设备以可扩展的方式,根据量子软硬件接口格式程序产生的模拟信号来接受控制并测量量子比特,以必要的反馈控制来执行具体的量子应用。
以超导量子线路的测控系统为例说明量子控制体系结构。已有的超导量子测控系统可分为两代。第一代主要由可直接生成和接收模拟微波信号的设备组成,系统易于实现,但因缺乏反馈控制而使可扩展性和编程能力受限。2017年,代尔夫特理工大学研究团队提出了QuMA微体系结构,可实时生成时序精确的控制信号,兼具可灵活编程的反馈控制能力和更好的可扩展性;这类基于定制数字逻辑(尤其是使用指令集)的量子测控硬件系统可称为第二代量子测控系统。国际上主流的测量系统供应商(如苏黎世仪器、是德科技、量子机器等品牌)均推出了第二代量子测控系统产品;国内企业启动了第二代量子测控系统的研发(如QuAPE)。
量子控制体系结构当前面临的主要挑战在于,以极低的反馈延迟(百纳秒级别甚至更短)实现可编程的反馈控制,同时保证测控系统的可扩展性。量子软件、量子控制体系结构理应紧密对接,而两个方向的发展仍相对独立,存在着能力不相匹配的现实问题;协调量子软件与量子测控系统的发展以实现无缝对接,是量子计算机工程面临的又一挑战。
四、超导量子计算
超导量子计算路线的优势在于:超导量子芯片的制备工艺与微纳加工技术兼容,具有较好的可扩展性;超导量子比特及相关器件的参数具有良好的设计自由度;超导量子线路的操控使用成熟的微波电子学技术,速度快、可操控性好。超导量子计算的实现方案主要是基于量子门的量子线路方案、量子退火方案:由于后者还没有展示可信的量子加速效应,文中讨论基于前者展开。
超导量子比特是由约瑟夫森结和其他超导元器件构成的非线性量子谐振电路,分为以电荷、相位、磁通等自由度编码量子信息的基本类型以及为数众多的复合类型。当前的主流类型之一是Transmon及其变种,对环境电荷的涨落不敏感,具有较长的退相干时间;其他常见类型有磁通量子比特、Fluxonium、0-π比特等。
超导量子比特可通过多种方式与外部电路耦合,由此实现操控和测量。以Transmon为例,相应操控由外部驱动电路通过电容耦合到比特来实现;关于测量,一般将比特与谐振腔耦合,在大失谐条件下谐振腔的本征频率依赖于比特的状态。对于与谐振腔耦合的共面波导传输线,利用色散读取方法测量谐振腔的频率,进而确定比特的状态。
构建多比特量子线路,需要可控的比特间耦合;平面结构的超导量子线路较为常见,比特之间一般通过电容或者电感方式耦合;近年的重要进展之一是提出并实现了可调耦合方案。此外,利用三维谐振腔来编码量子信息的超导量子线路,在实现灵活可调的比特耦合方面存在较大困难,这就给相关路线的可扩展性构成了挑战。
2019年,谷歌公司研究团队推出的Sycamore超导量子芯片包含了54个Xmon类型的超导量子比特,通过88个可调耦合器耦合构成了平面网格阵列,两比特门的平均保真度达到99.4%;利用该芯片首次实验展示了在量子随机线路采样问题上的量子优越性。2021年,中国科学技术大学研究团队推出了包含66个比特的“祖冲之号”超导量子处理器,据此完成了更大规模、更深线路的量子优越性实验。国际商业机器公司(IBM)在自建的量子云平台上推出了含有127个比特的处理器。
除了集成度方面的进展之外,其他关键性指标也有显著提升。采用钽替代当前主流的铝作为超导电路材料,将平面Transmon比特的退相干时间提升到300?μs;随后北京量子科学研究院进一步优化到500?μs。麻省理工学院、IBM的研究团队将两比特门保真度提升到接近99.9%。作为通往可容错量子计算的最关键步骤,量子纠错实现方面取得了一定进展,如表面纠错码的可行性得到初步演示。
目前,超导量子计算领域竞争非常激烈。国际著名学术机构有:美国的耶鲁大学、麻省理工学院、普林斯顿大学、芝加哥大学、加州大学伯克利分校、国家标准与技术研究院,欧洲的苏黎世联邦理工学院、代尔夫特大学、查尔姆斯理工大学等。包括谷歌公司、IBM、Rigetti计算有限公司在内的国际知名企业也很早开展研发。在我国,超导量子计算方面的代表性机构有:中国科学技术大学、南京大学、浙江大学、清华大学、北京量子科学研究院、中国科学院物理研究所、南方科技大学,华为技术有限公司、阿里巴巴集团、深圳市腾讯计算机系统有限公司、合肥本源量子计算科技有限责任公司等。
超导量子计算路线面临的挑战主要有三方面。
① 主流的平面结构限制了比特之间的连接性,由于只能实现近邻耦合而导致运行量子算法时的极大额外开销,需要改进连接性来精简量子线路的深度。
② 超导量子芯片的控制线的数量随着比特数线性增加,但其平面属性导致只能从芯片四周将控制线引入到芯片中央,这在扩展时使得控制线密度不断增大,而串扰将更难抑制。多层芯片三维集成技术可以一定程度上缓解该问题,但在更高集成度情形下解决布线和串扰问题极具挑战性。
③ 超导量子比特的退相干时间需要进一步提升,涉及从微观机理出发,对材料、设计、工艺、测试环境进行全方位优化。就目前状况作预判,有望在3~5年后实现一些小规模的实际应用;稳步推进量子纠错研发,为在10年或更远时间后实现容错量子计算确立基础。
五、分布式超导量子计算
集成电路芯片可通过缩小器件尺寸来提高集成度、降低功耗,而类似的策略对超导量子芯片不适用。这是因为,缩小超导量子比特会减小模体积,在增加能量密度以及电场与金属界面缺陷耦合的同时,导致更强的退相干;当前超导量子芯片的大部分面积被控制线占用,无法缩小尺寸来提升集成度。
可以简单估算,二维Transmon的典型尺寸是0.5 mm量级,在直径为100 mm的晶圆上可集成的数目约为数万个;进一步考虑控制线扇出、串扰等因素,可集成数目将降低到数千个。目前单芯片的集成度(约为数百个)未达到上述极限,但未来要继续扩展超导量子处理器,则不可避免地会将量子比特分布在多个芯片上并以模块化方式扩展处理器的规模。
分布式超导量子计算需要在芯片之间建立起可靠的连接,常见的互联通道是铌钛超导同轴线、铝波导管。考虑耦合强度、信道长度,可采取的芯片之间的量子态传输方式有经由信道多模驻波模式中的一个进行传输、通过发射和接收微波飞行光子实现传输:前者方案较简单,但受限于微波波长因而无法建立远距离连接,目前在短距离构建模块化量子处理器方面已有一些探索;后者允许建立远距离连接,但需要对微波光子进行赋形和抓取,相关技术首先在单芯片上取得进展,随后完成了基于微波飞行光子的跨芯片量子态传输。2020年,Magnard等展示了跨制冷机的量子态传输,Zhong等则展示了跨芯片的多比特纠缠态传输。
目前,分布式超导量子计算受到多方关注。2020年,谷歌公司发表了量子计算机路线图,计划采用多芯片互联方案来构建包含百万量子比特的超导量子处理器。Rigetti计算有限公司也开展了利用芯片倒装技术来集成多个芯片的研究。2021年,有研究团队公布了跨越30 m的多芯片连接计划。分布式超导量子计算将朝着更多比特、更长信道的方向发展。
分布式超导量子计算还面临着一些技术挑战。
① 跨芯片的信道连接损耗较大,主要源自芯片和微波线缆之间的连接以及插入的微波元器件和信道本身,需要提高连接和信道的质量并尽量减少中间元件。
② 量子态传输的保真度,在不做后选择的情况下公开报道的芯片间态传输保真度最高为91.1%,相比单芯片上两比特门普遍达到的99%仍有差距。这些挑战阻碍了分布式超导量子计算规模的继续扩展,但也为后来者赶超提供了机会。
六、光量子计算
光量子系统具有抗退相干、单比特操纵简单精确、提供分布式接口等优点,可以利用光子的多个自由度进行编码,是重要的量子信息处理系统之一。光量子计算可分为专用和通用的量子计算模型;根据编码方式的不同也可分为离散变量和连续变量模型(或二者的结合)。这些不同的路径都有望实现通用量子计算。
光量子计算的核心硬件包括量子光源、光量子线路、单光子探测器。量子光源用于制备特定初始态,常见类型有确定性的单光子源、压缩真空态光源、纠缠光子对光源等。半导体量子点在激光的激发下会像原子一样辐射单个光子,是实现确定性的可扩展单光子源的重要途径。中国科学技术大学研究团队2013年首创量子点脉冲共振激发技术,研制出了确定性偏振、高纯度、高效率的单光子源;2018年实现了高全同性、高受激效率的参量下转换纠缠光子对;2019年实现了高保真度、高效率、高全同性的双光子纠缠源。2020年,研究者首次实现了片上高纯度、高全同性、预报效率大于90%的光源。
早期的光量子计算主要基于自由空间的线性光学,实验技术成熟,光子在晶体和自由空间中的损耗都很低,但此方案的可扩展性较差。大规模扩展的可行路径是将光学元件集成到光芯片上,如将量子光源、线路、探测器全部集成在一个波导芯片。这类光芯片方案稳定性和可扩展性良好,但目前的效率还需提升。相关研究整体上处于起步阶段。
关于光量子比特的测量,目前超导单光子探测器正在获得越来越广泛的应用。美国国家标准与技术研究院、代尔夫特大学、中国科学院上海微系统与信息技术研究所等机构可以生产兼具高探测效率(> 90%)、高重复频率(> 150 MHz)的超导纳米线单光子探测器。
光学量子计算的基本操作(如概率性的控制逻辑门)、各种量子算法的简单演示验证均已实现。中国科学技术大学研究团队构建了光量子计算原型机“九章”以及升级版的“九章2.0”,据此实现了量子优越性这一里程碑。2022年,Xanadu量子技术有限公司在时间编码玻色采样上实现了量子优越性验证。
光量子计算路线当前最大的挑战是如何实现确定性的两比特纠缠门,大规模的纠缠态制备和线路操纵、高效率探测器的研制等也是亟待研究的难题。两比特纠缠门的实现思路有两种:基于线性光学,在线性光学的基础上引入非线性。
在大规模、可扩展的纠缠态制备方面,有望以量子点自旋为媒介,将辐射单光子制备到大规模纠缠态上。在近期,光量子计算的发展趋势表现为:实现含噪声、中等规模的量子计算应用;实现确定性两比特纠缠门,解决通用光量子计算的瓶颈问题;制备大规模纠缠态;实现基于GKP态的容错量子计算。
七、囚禁离子量子计算
囚禁离子系统是最早用于量子计算的物理系统,以囚禁在射频电场中离子的超精细或塞曼能级作为量子比特载体,通过激光或微波进行相干操控。离子量子比特的频率只由离子种类、外界磁场决定,因而相比超导、量子点等人造量子比特具有完美的全同性。
囚禁在一个势阱中的多个离子在库伦斥力作用下会形成稳定的晶格结构,整个晶格的简谐振动可作为阱中不同离子之间产生量子纠缠的媒介。囚禁离子系统具有全连接性,即系统中任意量子比特间都存在直接相互作用;处于不同阱中的离子还能以各自辐射的光子作为媒介来实现远程纠缠。
囚禁离子系统的早期发展得益于成熟的原子 /分子光学实验技术,并无明显的技术瓶颈。当规模较小时,囚禁离子系统具有小时级的相干时间、极高的量子门保真度。然而,囚禁离子系统在规模化、系统稳定性方面尚存困难,如随着同一势阱中离子数目的增多,离子晶格会愈发不稳定,离子晶格的振动频谱也趋于密集而难以利用。目前,解决这一问题的主流方案是“量子电荷耦合器件(QCCD)架构”,即利用电极在芯片上定义多个囚禁区域,每个区域包含少量离子;通过调制各电极的电压,驱动离子在不同区域之间移动和交换。
QCCD架构的未来发展方向是,在片上集成控制电路、光波导、光探测器,实现系统的集成化和小型化;由于涉及芯片制备、芯片封装、光波导制备、表面处理等多项技术集成,发展难度较大。
目前,构建包含数十至上百个离子的中小规模系统没有原理性障碍,但需要解决以下技术性问题:
① 光波导、电路、探测器等多器件集成型芯片阱的设计与制备;
② 因离子的反常加热率较高限制了门操作的保真度,需要发展低温阱、芯片表面处理等技术来降低加热率;
③ 系统的真空、光学、信号控制等部分的耦合度较高,不利于保持整体稳定性,需将各子系统进行模块化和小型化处理。
国外在离子阱方向的研究较为活跃,内容涉及整体系统的标准化与产品化、QCCD架构、芯片阱设计及制备、光波导与芯片阱的集成等。国内研究起步较晚,整体处于跟随阶段,研究机构有清华大学、国防科技大学、中国科学院武汉物理与数学研究所、中国科学技术大学、中国人民大学、南方科技大学、华为技术有限公司等。
八、硅基量子计算
硅基量子计算使用量子点中囚禁的单电子或空穴作为量子比特,通过电脉冲实现对比特的驱动和耦合。这一技术路线的优势表现在:大部分工艺与传统的金属 - 氧化物 - 半导体(MOS)工艺兼容,具有大规模扩展的潜力,在商业化阶段将易于和半导体行业对接;比特相干时间长,门操作精度高;可进行全电学操控。
硅基量子点的实现方式分为两种:
① 通过在门电极上加载电压来囚禁单个电子或空穴,利用电极对其量子态进行操控;这种方式可实现比特间耦合的可灵活调节,但集成的门电极密度高,需要采用公共和悬浮电极等才能大规模生产。
② 通过扫描隧道显微镜(STM)或离子束注入方式在硅衬底中掺杂原子并作为比特载体,然后利用MOS电极或STM直写电极对掺杂原子的电子自旋进行操控;具有比特全同性高、易于扩展、电极密度低、相干时间长等优点,但加工难度大。
近年来,硅基量子计算研究进展迅速,多个研究团队独立实现了3~6个比特的集成;将量子门保真度提升到了容错阈值之上,实现了电子自旋与超导微波腔的强耦合、基于微波光子的长程自旋耦合。最近发展的低温集成 - 互补金属氧化物半导体(Cryo-CMOS)量子测控技术,在与硅基比特结合后有望解决中大规模的读取及控制问题;通过融合硅基量子芯片和经典CMOS低温芯片,多个研究团队实现了在1.1~4 K温区运行良好的硅基热比特。因此,硅基平台是目前唯一可在4 K温度条件下利用大规模集成半导体工艺实现经典 - 量子混合的体系。
硅基量子计算的发展挑战有:单比特门所需元件占据较大空间,应优化比特驱动方案;多量子比特的集成需在方案和技术层面需取得突破;在单原子量子计算方面进一步提升原子放置的精度和成功率以实现单原子阵列;在工艺水平进一步提升后,改善硅基衬底质量和介电层电噪声以提高芯片成品率。
未来数年内硅基量子计算将迎来爆发,在追平超导量子计算的同时,展现可大规模集成、兼容传统半导体行业等优势,因而研究竞争非常激烈。国际领先的研究机构有普林斯顿大学、东京大学、代尔夫特大学、新南威尔士大学等;微软公司、英特尔公司等知名企业已开始前期的商业开发。在我国,公开报道的研究机构主要是中国科学技术大学、中国科学院微电子研究所、中国科学院物理研究所、北京量子信息科学研究院、南方科技大学等。
九、其他类别的量子计算体系
(一)中性原子量子计算
中性原子量子计算使用激光冷却和囚禁技术,实现光阱中的中性原子阵列;利用单个原子的内态能级编码量子信息,后通过微波或光学跃迁实现单比特操控;基于里德堡阻塞效应或自旋交换碰撞,实现多比特操控并最终实现量子计算。中性原子体系的优点为:与环境耦合弱,相干时间长;相邻原子间的距离在微米量级,易于实现对单比特的独立操控,串扰低;量子比特连接灵活可变,可以任意操控和改变原子间距离、原子构型等,可扩展性良好。
在碱金属元素体系相关的研究中,2010年利用里德堡阻塞效应首次实现了两比特纠缠和受控非门;2016年实现了约50个单原子阵列的制备,将单比特门保真度提高到99.6%(达到容错量子计算阈值);2020年以来实现了可编程、包含至少200个量子比特的量子处理器及其量子算法与量子模拟演示。在碱土金属元素体系相关的研究中,目前两比特纠缠保真度已提升至99.5%。
该领域的关键技术包括:量子寄存器的制备和扩展,任意量子比特的操控和寻址,多量子比特的高保真度操控。预计短期内可实现:包含数千个量子比特的量子寄存器,保真度超过容错量子计算阈值的多比特操控,基于数百个量子比特的复杂量子模拟,量子优越性演示。
(二)金刚石氮空位色心量子计算
金刚石氮空位(NV)色心量子计算指利用NV色心的电子自旋及金刚石中的碳13核自旋作为固态量子比特,可在室温条件下实现量子信息处理的一类技术路线。NV电子自旋作为量子比特,可由激光脉冲实现初始化和测量、基于微波脉冲的量子态翻转,在室温下具有长达毫秒量级的相干时间。
经过20多年发展,NV色心量子计算的技术体系(从金刚石样品器件设计及加工到核自旋探测、多比特操控)均较为成熟。然而,在这一体系中实现可扩展的量子计算还有很多技术难题:实现集成化功能器件和阵列依赖高效可控的NV色心制备,还需有效抑制微纳加工过程中引入的噪声;随着量子比特的增多,需发展精准的多比特操控技术以抑制彼此之间的串扰以及各种因素引起的误差,才能不断提升量子逻辑门保真度。这些都是实现基于固态体系多节点纠缠网络的重要环节。
近10年来,我国研究团队在此方向的综合能力进步显著,在部分细分方向上完成了较高水准、富有特色的工作;但整体来看,相比国际领先团队还存在一定差距。
(三)核磁共振量子计算
核磁共振波谱学发展至今约有80年,在生命科学、物理、化学等领域催生了诸多应用,7个诺贝尔奖获得者的研究与此相关。基于核磁共振的量子计算利用了半自旋的原子核作为量子比特,是最早实现Shor分解算法、Grover搜索算法的实验体系;目前达到了操控12个量子比特的能力。
在学术研究方面,滑铁卢大学、斯图加特大学、清华大学、中国科学技术大学、南方科技大学等高校均有活跃的研究团队,在量子计算、量子模拟、量子机器学习等多方面取得了极具影响力的成果,如量子人脸识别、量子手写体识别、量子多体局域化、12比特量子随机线路模拟等。在产业化方面,清华大学、南方科技大学联合团队2017年推出了国际首个核磁共振4比特量子计算云平台;深圳量旋科技有限公司2019年推出了两比特小型化核磁共振量子计算机。
核磁共振具有系综特征,尽管在可扩展方面具有困难,但依然是目前为数不多的能够操控10个以上量子比特的实验体系之一,因此被视为发展量子控制技术、探索量子机器学习前沿领域、深化量子产业的良好实验平台。另一个富有潜力的发展方向是核电共振,即将原子核注入到硅基材料中并利用电场进行操控,有望解决比特频率拥挤、比特串扰等问题。
(四)自旋波量子计算
基于自旋波的量子计算是富有潜力的新型量子计算方案之一。自旋波是磁性材料中电子自旋的集体进动模式,其量子化准粒子称为磁子,每个磁子携带1个约化普朗克常数的自旋角动量。磁子拥有较长的弛豫时间和良好的可操控性,可用于编码量子信息。
磁子学与量子信息科学交叉形成了新的量子磁子学,涵盖传统自旋电子学、磁子学、量子光学、量子计算、量子信息科学。基于磁子的量子比特在理论上得到证实,而利用磁子进行量子信息处理还需实现与其他量子计算平台的融合。磁子的输运不涉及电荷移动,可通过磁性绝缘体进行长距离传播,可显著降低量子器件的能量耗散。
当前,有关自旋波量子计算的研究仍处于起步阶段,实现思路主要有两种:将自旋波和其他量子计算体系相结合,发展出新型的杂化量子信息处理技术;直接利用磁子实现量子计算。第一种思路是当前研究的主流,尤其是将磁子与超导量子线路结合。通过结构设计来增强微波腔光子 - 磁子 - 超导量子比特之间的耦合作用,是极具挑战性的问题。
(五)拓扑量子计算
发展量子计算技术面临的最大挑战是如何解决退相干带来的误差。与其他技术路线相比,拓扑量子计算被认为可在原理层面上解决这一问题。理论上只需少数几个(甚至1个)拓扑量子比特即可构建1个逻辑比特;一旦实现拓扑量子比特,即可进入集成逻辑比特的时代,这将是量子计算发展的飞跃式进步。以微软公司为代表,众多研究团队投身其中,试图实现拓扑量子比特。
目前,用于探索拓扑量子计算的体系包括强自旋轨道耦合材料和s波超导体近邻体系、拓扑绝缘体和s波超导体近邻体系、铁基超导体、本征拓扑超导体。本方向的关键技术有量子材料生长、拓扑量子器件制备、拓扑态的量子输运测量等,相关研究是实现应用突破的关键。
零偏压电导峰曾经被作为判断是否存在马约拉纳量子态的依据,但当前共识是这一依据并不可靠;如何实现满足非阿贝尔统计的编织操作也是本方向亟待解决的核心问题。整体来看,拓扑量子计算尚处基础研究阶段。
十、关于我国量子计算技术发展的思考和建议
量子计算是挑战人类极限科技能力的系统工程,涉及几乎所有学科的极限水平技术的总集成,领域发展必定前途光明而道路曲折。量子计算机作为世纪系统工程,迫切需要不同学科领域、跨越专业的人才加强合作、联合攻关、协同推进;尤其要避免跟风式、“小而全”的低水平重复建设,消除内部恶性竞争可能导致的重大资源浪费。同时,着眼于量子计算领域的中长期稳健发展,积极培育创新人才,持续性加强基础研究,聚焦核心关键技术研发,走出一条符合国情、创造价值的中国量子计算发展之路。
(一)注重战略规划和布局,保持大局观
近年来,国家高度重视量子科技并将之列为优先发展的国家战略,通过一系列举措来加强规划与布局,筹划成立量子信息科学国家实验室。这些举措在宏观层面为我国量子科技的中长期发展指明了方向、创造了环境。着眼于未来来我国量子科技研发布局的广度和深度,建议成立国家量子科技专业委员会,对我国量子科技的总体发展进行宏观指导,同时为政府相关部门提供有关量子科技发展的咨询服务与政策建议。
从事量子计算研发及政策制定的人员,都应对该领域的发展保持清晰的大局观:量子计算前途光明,但发展道路必定曲折。这一观点包含的两层意思均不可偏废:
① 如果对于量子计算的潜在价值没有清晰的认识,则不可能站在一定的高度去看待相关研发以及制定政策,容易滑向庸俗琐碎化;
② 如果对于发展道路的曲折没有足够的心理准备,则易出现盲目乐观主义,导致急功近利、遇到困难不再坚持等问题。
当前学术界的主流观点认为,实现可扩展的通用容错量子计算不存在原则性困难,因而对此领域的长远发展比较乐观。但是,对于具有真正实用价值的量子计算机发展路线图,学术界存在不同意见,普遍表现得相当谨慎。可以说,学术界对于量子计算的中长期发展是持有上述大局观的。在产业界,一些顶尖的国际科技公司在量子计算领域的研究时间超过30年;尽管技术发展有起伏,但始终保持定力,这是握领域发展主导权的必要保障。
(二)建立创新人才制度,培养高水平队伍
人才是高科技事业发展的核心元素。为保障我国量子计算领域的长期健康发展,需要提升人才队伍的规模和质量。在近期,宜保持高端人才的引进力度,积极进行引进人才的服务配套工作,支持在新环境中迅速发挥作用,拓展良好的发展空间。
长远来看,解决我国量子计算发展的人才紧缺问题需要立足自主培养。量子计算研发是一个系统工程,对人才的需求具有多样性。早期的量子计算研发偏重基础研究;未来转向大规模、实用化,需要越来越多的专业工程师。针对这种多样化趋势,建立合理的人才培养和评价机制极为必要。
在人才培养方面,需要关注具有数学和物理基础、工程技术背景深厚的复合型人才,从而在传统基础研究领域、工程应用开发领域之间架起“桥梁”。复合型人才培养有多种途径,如成立专门的量子科学与工程专业,通过合理的“产学研”体系引导现有人才分流。完善的“产学研”体系有助于形成学术界和产业界的良性互动,为各类人才的培养、流动、发展提供充分的机会与可能性。
合理的人才评价机制是保障量子计算领域长期健康发展的要素。鉴于量子计算对人才需求的多样化,相应的人才评价机制也需保持灵活性。早期从事量子计算研发工作的主体是基础研究相关人才,相应的评价机制以论文、项目及经费为主导标准,但很难为工程师类的人才提供稳定职位和上升通道。解决类似问题,还依赖完善的“产学研”体系以及合理灵活的人才评价标准。
(三)加强基础研究,争取更多原创突破
从历史角度看,基于量子力学的技术应用开发尚处于初级阶段。展望未来,很难精准预见当前的技术路线会遇到何种瓶颈。技术发展历史中经常出现类似案例,即原则上可行的方案最终无法工程实用化,反而被其他原创性的突破所替代。因此,继续加强基础研究对于量子计算研发具有重要意义。
基础研究的显著特点是不可预见性,即不太可能事前预见会在什么方向和课题上取得突破,不太可能事前规划突破的时间进度表,不太可能预见某个突破在未来有何具体应用。为了营造良好的基础研究氛围,一是应避免那些不符合基础研究规律的发展规划和政策引导;越是具有原创性和突破性的研究,越容易出现在意料之外的方向。二是应避免单一僵化的人才考核模式。
传统的人才评价机制基于可考核的硬指标,曾经并且会继续在我国科技事业中发挥作用,但应尽量避免此类评价体系应用过程中的简单化和庸俗化。基础研究的突破需要研究者长时间专注探索,加之可能还是非主流方向,很难保证有稳定的产出。过于强调可考核的硬指标,会激励追逐热点并导致急功近利行为;在极端情况下,甚至会变成对有志于坐“冷板凳”科研人员的惩罚,使其“无板凳可坐”。
建议努力创造宽松自由的量子计算研究环境,支持研究者追随自己的兴趣与品味去选择方向及课题,进行自由的学术与应用探索;对基础研究宜抱有“水到渠成”、一定程度上可遇不可求的态度,以立足长远的姿态来争取更多原创突破。
(四)加强核心技术和设备研发,保证自主可控
相对于我国在科技领域总体上还落后于发达国家的现状而言,我国在支撑科技领域发展的关键设备与技术方面的差距更为明显。也应清楚地认识到,这种现状是由我国经济社会发展的历史以及当前的产业结构决定的,也是必须经历的发展阶段。深刻理解这一点有助于树立解决关键设备及技术落后问题的信心。
对于解决关键设备和技术落后问题,需要关注以下方面。
① 加强必要的规划和引导,避免完全交由市场和资本规律来主导。作为战略性新兴技术,量子计算发展离不开国家的战略支撑;创建良好的政策环境,制定相关技术推进法案,支持部门协同和全生命周期的专业化管理,建立国家层面的跨部门协同管理机制。
② 关注研发定位与可持续性。建立良好的“产学研“体系,使相关研究成果有机会转化成产品和应用技术;开展针对量子计算技术的立法与标准化,提高知识产权使用率,最大化发挥专利价值。
③ 未来的量子计算研发活动会催生众多关键设备与技术的发展需求,应努力把握难得机遇。
本文来自微信公众号:中国工程院院刊 (ID:CAE-Engineering),作者:李晓巍、付祥、燕飞、钟有鹏、陆朝阳、张君华、贺煜、尉石、鲁大为、辛涛、陈济雷、林本川、张振生、刘松、陈远珍、俞大鹏