量子计算机发展趋势如何?目前,国内量子计算机发展到什么水平?量子计算机(quantum computer)是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。自1981年费曼首次提出量子计算机的概念之后,经过数十年的努力,谷歌、IBM以及微软等科技巨头和初创企业正在将其变为现实
量子计算机是什么?量子计算机是基于量子力学原理构建的计算机。量子态叠加原理使得量子计算机 每个量子比特(qubit)能够同时表示二进制中的 0 和 1,从而相较经典计算机算力发生爆发式增长,形成“量子优越性”。科学家预测,经典计算机未来仍将承担收发邮件、视频音乐、网络游戏等功能,而量子计算机则将用于解决大型分子模拟、寻找大数质因数等经典计算机无法模拟的领域,并在 AI 计算领域对传统算力进行提升。
量子计算机有什么用?超导量子比特是以量子力学为理论基础,约瑟夫森结(Josephson junction)为基本载体的量子两能级系统。超导量子比特具有可与传统的微电子加工技术兼容、可控性、低损耗以及可扩展性等方面的优势,所以这是一种很有前景的实现量子计算机的方案之一。对比经典比特之间的逻辑运算和计算处理,我们根据实现量子计算机的物理载体必须具备第三个条件可知,要实现可控的量子比特之间的相干性以及退相干时间,这些都是实现量子计算机的一个必要条件。
在解决实际问题的过程中,CPU 采用“串行”计算,即将一个问题的若干部分按照顺序依次进行运算;GPU 采用“并行”计算,即将一个问题拆成若干个小问题后,同时对每个小问题的一部分进行运算;QPU 则利用量子叠加性快速遍历问题的各种可能性并找到正确答案。形象地说,CPU 算力随比特数 n 的增长呈线性 n增长,GPU 算力随比特数 n 的增长呈平方次 n×n 增长,QPU 算力随比特数 n 的增长呈幂指数 2^n增长。
量子计算机还处在早期发展的阶段,倘若类比经典计算机,今天的量子计算机还处在经典计算机的电子管时代,就连最底层的物理载体还没有完全形成。 目前主流的技术路径有超导、半导、离子阱、光学以及量子拓扑这五个方向。前四种路径均已制作出物理原型机,但量子拓扑这一微软重注的方向尚无物理层面的实现。
《新一代人工智能发展规划》对攻克掌握核心技术方面作了专门部署。结合重大项目,对围绕人工智能方面的计划项目部署进行了整体安排,形成“1+N”的人工智能项目群,包括大数据、云计算、智能制造、机器人、量子计算、量子通信、脑科学等等。新一代人工智能重大科技项目,将和这些已经安排的项目任务,共同形成了国家人工智能研发的总体布局。
2018年2月中科院/中科大团队发布量子计算云平台最新成果-中科院联合阿里云打造的11量子比特超导量子计算的云平台,这是继IBM后全球第二家向公众提供10量子比特以上超导量子计算云服务的系统。平台已成功上线32比特量子虚拟机,并已经实现了64量子比特的量子电路模拟打破IBMQ的56位仿真记录。
量子计算机的巨大潜力,还与量子力学中的另一个著名概念“量子纠缠”有关,即各个量子比特可通过量子纠缠联系在一起。量子比特的概念虽然抽象,但量子计算机并非虚幻。建造它们的理论基础已搭建好,但是要实现它们,还要面临一项艰巨的挑战。量子比特本质上是处于叠加态的亚原子粒子,如电子、被束缚的离子或光子。量子比特周围环境的细微变化,比如振动、电场、磁场、宇宙辐射等,都可能向量子比特输入能量,进而使叠加态坍缩,使量子比特失效。因此,量子比特需要密封在极冷、真空环境中以最大程度地避免任何干扰。这就是量子计算机的搭建面临的巨大挑战。
中国科学院院士潘建伟表示:随着大数据时代到来,全球数据量每两年会翻一番。同时,传统的发展模式受到严重的制约,摩尔定律正在逐渐逼近极限,而超级计算机又能耗巨大。利用量子叠加原理,可以构建量子计算机,其计算能力随着可操纵的量子比特数目呈指数增长量子力量在经过百余年的发展,已经为解决这些问题做好了准备。
想了解更多关于量子计算机行业专业数据分析,请点击查看中研普华研究院《2022-2027年中国量子计算机行业市场深度调研与投资风险预测报告》。

关注公众号
免费获取更多报告节选
免费咨询行业专家