量子计算按照既定的算法和程序,对量子态进行操控和测量的过程。量子态的演化过程,对应的就是一个量子计算过程。量子计算是量子信息技术的核心。没有量子计算,量子技术其他领域的发展,不足以动摇现有信息技术的根基。
量子计算利用的是量子叠加的特性。多个量子比特与同样数目的经典比特比较,差别是指数级的。N个经典比特一次表示的数字只有1个,N个量子比特一次能表示的数字数目为 2的N 次方。当 N=250 时,可以表示的数字数目比宇宙中所有原子的数目还要多。
量子计算以量子比特为基本单元,对传统计算机来说,两个比特能表示四个数,也就是 00、01、10、11,但某个具体的时刻只能有一个值。但对于两个量子比特,这四个值可以同时存在。随着量子比特数的增加,能同时表示的数也会指数级的增加,N个量子比特就可以同时有2的N次方个值,这就相当于在同一个时刻,可以进行2的N次方个运算。
与经典计算机不同,量子计算机的算力随量子比特的数目不是线性增加,而是指数增加的。
在目前阶段,实验室能够制备的量子比特的退相干时间不够长,操控的精度也有限,还远未达到要实现量子计算指数加速的要求。
量子计算在理论和实验层面都经历了多个发展历程,主要有以下几个阶段。
初步概念阶段(1980-1994):1980年代初期,Paul Beniof 提出将量子力学原理用于模拟图灵机的想法,成为量子计算理论研究的起点。理查德·费曼(RichardFeynman)和大卫·多伊奇(David Deutsch)分别于 1982 年和 1985 年提出了量子系统和量子图灵机的概念。
算法和理论发展阶段(1994-2000):1994年,彼得:秀尔(PeterShor)发明了Shor算法,证明了量子计算机在解决特定问题上超越经典计算机的潜力。1996年鲁弗(LoVGrover )发明了 Grover 算法,可以在无序数据库中以平方根的时间复杂度查找特定元素,
实验验证和技术进步阶段(2001-2010):研究小组开始使用不同的物理系统(如离子陷阱、超导电路、光子等)实现量子比特和量子逻辑门,证实了量子计算的实际可行性
商业化和标准化阶段(2011-现在):2011年以后,随着技术的成熟和投资的增加,多家公司(例如 Google、IBM、Intel、Rigetti Computing等)开始研发量子计算机,并通过云服务形式提供用户远程访问量子计算资源。