美科学家在量子计算机领域获新突破

来源:百度文库 编辑:超级军网 时间:2024/05/03 06:16:08
<P><a href="http://news.xinhuanet.com/world/2005-04/26/content_2879224.htm" target="_blank" >http://news.xinhuanet.com/world/2005-04/26/content_2879224.htm</A></P>
<P>新华网洛杉矶4月25日电(记者陈勇)美国俄亥俄州立大学研究人员25日说,他们成功地使相干激光在玻璃芯片上构成了一个个“原子陷阱”,理论上每个“原子陷阱”能捕捉一个气态铷原子。研究人员说,这一进展向将来设计建造量子计算机前进了一大步。<BR>    俄亥俄州立大学副教授格雷格·拉菲亚蒂斯等人在《物理评论A》杂志上发 <BR>表论文说,当前制造量子计算机的一个思路是首先将原子捕捉住,这样就能通过激光操作来读写量子状态。其他研究人员在实现这一思路时,都试图用自由空间的一个封闭“笼子”来捕捉原子,但目前在实践上要操作“笼子”中的原子有一定困难。<BR>    拉菲亚蒂斯等人通过另一种方式来捕捉原子。他们用两束相干激光在一块玻璃芯片的表面涂层内纵横相交,由于光的相干作用,芯片上形成肉眼看不到的激光的波峰和波谷,犹如一个个“鸡蛋格”,“鸡蛋格”的最中央是一个大小相当于原子、被电场包围的空洞。研究人员说,每个空洞可以捕捉住一个铷原子,然后用单束的激光就可以操纵原子,实现量子计算。<BR>    这一设计与目前激光唱片存储数据的方式非常相似。拉菲亚蒂斯说,用平面芯片上的激光“陷阱”捕捉原子比用空间中的“笼子”更具有可操作性。他们已经制造出了这样的芯片,并使用磁场成功地使10亿个铷原子形成豌豆大小的原子云。目前,他们正试图操作原子云运动到芯片上方,理论上,当铷原子云到达芯片上方时就会自动落入“激光陷阱”。<BR>    传统计算机是通过二进制位“0”和“1”来表示信息,一个字节要么是“0”,要么是“1”,而如果用量子状态表示信息,一个量子位就可以表达两者兼有的状态。按照这一构思,量子计算机的信息处理和存储能力比目前的计算机将有质的飞跃。据研究人员估计,要实现目前最新型计算机的功能,只需要1000个量子位,因此量子计算机成为当前的研究热点。<BR>    拉菲亚蒂斯等人说,如果他们的设计成功,将极大地推动量子计算机的设计制造,但真正应用到实际中将至少是2年之后的事情了。(完)</P><P><a href="http://news.xinhuanet.com/world/2005-04/26/content_2879224.htm" target="_blank" >http://news.xinhuanet.com/world/2005-04/26/content_2879224.htm</A></P>
<P>新华网洛杉矶4月25日电(记者陈勇)美国俄亥俄州立大学研究人员25日说,他们成功地使相干激光在玻璃芯片上构成了一个个“原子陷阱”,理论上每个“原子陷阱”能捕捉一个气态铷原子。研究人员说,这一进展向将来设计建造量子计算机前进了一大步。<BR>    俄亥俄州立大学副教授格雷格·拉菲亚蒂斯等人在《物理评论A》杂志上发 <BR>表论文说,当前制造量子计算机的一个思路是首先将原子捕捉住,这样就能通过激光操作来读写量子状态。其他研究人员在实现这一思路时,都试图用自由空间的一个封闭“笼子”来捕捉原子,但目前在实践上要操作“笼子”中的原子有一定困难。<BR>    拉菲亚蒂斯等人通过另一种方式来捕捉原子。他们用两束相干激光在一块玻璃芯片的表面涂层内纵横相交,由于光的相干作用,芯片上形成肉眼看不到的激光的波峰和波谷,犹如一个个“鸡蛋格”,“鸡蛋格”的最中央是一个大小相当于原子、被电场包围的空洞。研究人员说,每个空洞可以捕捉住一个铷原子,然后用单束的激光就可以操纵原子,实现量子计算。<BR>    这一设计与目前激光唱片存储数据的方式非常相似。拉菲亚蒂斯说,用平面芯片上的激光“陷阱”捕捉原子比用空间中的“笼子”更具有可操作性。他们已经制造出了这样的芯片,并使用磁场成功地使10亿个铷原子形成豌豆大小的原子云。目前,他们正试图操作原子云运动到芯片上方,理论上,当铷原子云到达芯片上方时就会自动落入“激光陷阱”。<BR>    传统计算机是通过二进制位“0”和“1”来表示信息,一个字节要么是“0”,要么是“1”,而如果用量子状态表示信息,一个量子位就可以表达两者兼有的状态。按照这一构思,量子计算机的信息处理和存储能力比目前的计算机将有质的飞跃。据研究人员估计,要实现目前最新型计算机的功能,只需要1000个量子位,因此量子计算机成为当前的研究热点。<BR>    拉菲亚蒂斯等人说,如果他们的设计成功,将极大地推动量子计算机的设计制造,但真正应用到实际中将至少是2年之后的事情了。(完)</P>
<P>似乎在这个领域我国也处于比较领先的地位,不知道谁会率先产业化。</P>
没有听说我国在这方面研究的成果
我国多年以前就有专家呼吁过,但国家似乎没有什么举措,据说连印度都已经取得实效了.
<P>量子计算机<BR>  量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究。研究可逆计算机的目的是为了解决计算机中的能耗问题。<BR>  20世纪60年代至70年代,人们发现能耗会导致计算机中的芯片发热,极大地影响了芯片的集成度,从而限制了计算机的运行速度。研究发现,能耗来源于计算过程中的不可逆操作。那么,是否计算过程必须要用不可逆操作才能完成呢?问题的答案是:所有经典计算机都可以找到一种对应的可逆计算机,而且不影响运算能力。既然计算机中的每一步操作都可以改造为可逆操作,那么在量子力学中,它就可以用一个幺正变换来表示。早期量子计算机,实际上是用量子力学语言描述的经典计算机,并没有用到量子力学的本质特性,如量子态的叠加性和相干性。在经典计算机中,基本信息单位为比特,运算对象是各种比特序列。与此类似,在量子计算机中,基本信息单位是量子比特,运算对象是量子比特序列。所不同的是,量子比特序列不但可以处于各种正交态的叠加态上,而且还可以处于纠缠态上。这些特殊的量子态,不仅提供了量子并行计算的可能,而且还将带来许多奇妙的性质。与经典计算机不同,量子计算机可以做任意的幺正变换,在得到输出态后,进行测量得出计算结果。因此,量子计算对经典计算作了极大的扩充,在数学形式上,经典计算可看作是一类特殊的量子计算。量子计算机对每一个叠加分量进行变换,所有这些变换同时完成,并按一定的概率幅叠加起来,给出结果,这种计算称作量子并行计算。除了进行并行计算外,量子计算机的另一重要用途是模拟量子系统,这项工作是经典计算机无法胜任的。<BR>  无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。遗憾的是,在实际系统中量子相干性很难保持。在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即消相干。因此,要使量子计算成为现实,一个核心问题就是克服消相干。而量子编码是迄今发现的克服消相干最有效的方法。主要的几种量子编码方案是:量子纠错码、量子避错码和量子防错码。量子纠错码是经典纠错码的类比,是目前研究的最多的一类编码,其优点为适用范围广,缺点是效率不高。<BR>  迄今为止,世界上还没有真正意义上的量子计算机。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想。如何实现量子计算,方案并不少,问题是在实验上实现对微观量子态的操纵确实太困难了。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。现在还很难说哪一种方案更有前景,只是量子点方案和超导约瑟夫森结方案更适合集成化和小型化。将来也许现有的方案都派不上用场,最后脱颖而出的是一种全新的设计,而这种新设计又是以某种新材料为基础,就像半导体材料对于电子计算机一样。研究量子计算机的目的不是要用它来取代现有的计算机。量子计算机使计算的概念焕然一新,这是量子计算机与其他计算机如光计算机和生物计算机等的不同之处。量子计算机的作用远不止是解决一些经典计算机无法解决的问题。</P>
未来的量子计算机<BR><BR>黄文<BR>  目前,电子计算机集成电路的集成度,大约以每3年翻两番的速度发展。1990年已经制成了64兆位的动态随机存储器,集成电路的线宽已细到0.3微米。1993年制成了256兆位的动态随机存储器。当存储器达到1024兆位时,集成电路的线宽将细到0.1微米,也就是千万分之一米,它差不多是一根头发丝的千分之一。这样细的电路,被认为是集成电路的发展极 ,电路比这更细时,现有电子元件将失去工作的理论基础,因为电子作为一种微小粒子,具有“波粒二象性”,当电路线宽大于0.1微米时,电子完全可视为粒子,而不必考虑其波动性;而当电路线宽小于0.1微米时,电子的波动性必须考虑。这时会出现种种新的物理现象,称为量子效应。利用量子效应工作的电子元件称为量子元件。<BR>  现在的电子元件是通过控制所通过的电子数量多少或有无来进行工作的。宏观上电子计算用电位的高低来表示0和1以进行存储和计算。而量子元件通过控制粒子波动的相位来实现输出信号的强弱和有无,量子计算机通过利用粒子的量子力学效应,如光子的极化,原子的自旋等来表示0和1以进行存储和计算。量子元件的使用将使计算机的工作速度大大提高(约可提高1000倍),功耗大大减少(约可减少1000倍),电路大大简化且不易发热,体积大大缩小。<BR>  关于量子计算机的想法,1994年以后才引起人们的关注。因为此时美国电话电报公司贝尔实验室的一位科学家提出使用量子计算机可轻而易举地进行周数分解,比现行计算机要快得多。这吸引了大批科学家参与开发研究。<BR>  不久前,日本日立制作所开发成功一种量子元件——“单个电子晶体管”,可以控制单个电子的运动。这样的晶体管不仅体积小,而且功耗特低,比目前功耗最小的晶体管低约1000倍。日本富士通公司正在开发量子元件超高密度存储器,在1平方厘米面积的芯片上,可存储10万亿比特的信息,相当于可存储6000亿个汉字。美国物理学家的翰逊博士开发成功的电子自旋晶体管,有可能将集成电路的线宽降至0.01微米。在一个小小的芯片上可容纳数万亿个晶体管,使集成电路的集成度大大提高。<BR>  利用量子力学原理设计,由量子元件组装的量子计算机,不仅运算速度快,存储量大、功耗低,而且体积会大大缩小,一个超高速计算机可以放在口袋里,人造卫星的直径可以从数米减小到数十厘米。目前,量子计算机正在开发研制阶段,随着毫微技术的进步和毫微米级加工技术的发展,科学家们认为,量子计算机的心脏——微处理器将在5年内研制成功,世界上第一台量子计算机机有望在10年内诞生。</P>
<P>量子信息讲座<BR>第一讲   量子计算机<BR>段路明   郭光灿<BR>(中国科学技术大学物理系.合肥230026)<BR>编者按   在人类即将跨入21世纪之际,信息科学面临着新的挑战。计算机是否存在极限的运算速度?能否实现不可破译、不可窃听的保密通信?诸如此类的问题一直是数学家和电子技术专家们关注的重要课题。近年来,物理学家加入这个研究行列,他们成功地将量子理论和信息科学结合起来,提出许多令人耳目一新的概念、原理和方法,于是“量子信息”作为新兴的学科分支便应运而生。当前量子计算机、量子通信和至于密码术等已经成为研究热点,并取得重要进展。本刊从本期开始将陆续刊登一组“量子信息”专题文章,介绍这个领域的动态和进展。<BR>摘要   量子力学和计算机理论,这两个看起来互不相关的领域,其结合却产生了一门富于成效的学科:量子计算机。文章介绍了量子计算机的基本概念和历史背景,它相对于经典计算机的优越性,它的构造和实验方案,以及实现量子计算的困难及其克服途径,最后展望了量子计算机的发展前景。<BR>关键词   量子计算机,量子图灵机,量子并行计算,消相干<BR>QUANTUM COMPUTERS<BR>Duan Luming   Guo Guangcan<BR>(Department of Physics, University of Science and Technology of China. Hefei 230026)<BR>Abstract   Quantum mechanics and computers are seemingly uncorrelated. but a combination of them yields a fruitful Subject: quantum computers. An introduction is given to the background, advantages, construction, and experimental schemes of quantum computers. Difficulties in realizing quantum computation are also mentioned togther with possible strategies for overcoming them.<BR>Key words   quantum computers, quantum turing machine, quantum parallelism, decoherence<BR>一、量子计算机的概念及发展背景<BR>    1996年,美国《科学》周刊科技新闻中报道,量子计算机引起了计算机理论领域的革命。同年,量子计算机的先驱之一,Bennett在英国《自然》杂志新闻与评论栏声称,量子计算机将进入工程时代。目前,有关量子计算机的理论和实验正迅猛发展,那么,什么是量子计算机呢?<BR>   量子计算机,顾名思义,就是实现量子计算的机器。要说清楚量子计算,首先看经典计算。经典计算机从物理上可以被描述为对输入信号序列按一定算法进行变换的机器,其算法由计算机的内部逻辑电路来实现。经典计算机具有如下特点:<BR>    (1)其输入态和输出态都是经典信号,用量子力学的语言来描述,也即是:其输入态和输出态都是某一力学量的本征态。如输入二进制序列0110110,用量子记号,即|0110110>。所有的输入态均相互正交。对经典计算机不可能输入如下叠加态:<BR>C1|0110110 >+ C2|1001001>。<BR>    (2)经典计算机内部的每一步变换都将正交态演化为正交态,而一般的量子变换没有这个性质,因此,经典计算机中的变换(或计算)只对应一类特殊集。<BR>    相应于经典计算机的以上两个限制,量子计算机分别作了推广。量子计算机的输入用一个具有有限能级的量子系统来描述,如二能级系统(称为量子比特),量子计算机的变换(即量子计算)包括所有可能的么正变换。因此量子计算机的特点为[1]:<BR>    [1]量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交;<BR>    [2]量子计算机中的变换为所有可能的么正变换。得出输出态之后,量子计算机对输出态进行一定的测量,给出计算结果。<BR>    由此可见,量子计算对经典计算作了极大的扩充,经典计算是一类特殊的量子计算。量子计算最本质的特征为量子叠加性和相干性。量子计算机对每一个叠加分量实现的变换相当于一种经典计算,所有这些经典计算同时完成,并按一定的概率振幅叠加起来,给出量子计算机的输出结果。这种计算称为量子并行计算。量子并行处理大大提高了量子计算机的效率,使得其可以完成经典计算机无法完成的工作,如一个很大的自然数的因子分解(后面将叙及)。量子相干性在所有的量子超快速算法中得到了本质性的利用[2]。<BR>    量子计算机的概念源于对可逆计算机的研究,而研究可逆计算机是为了克服计算机中的能耗问题。早在六七十年代,人们就发现,能耗会导致计算机芯片的发热,影响芯片的集成度,从而限制了计算机的运行速度。Landauer[3]最早考虑了这个问题,他考察了能耗的来源,指出:能耗产生于计算过程中的不可逆操作。例如,对两比待的异或操作,因为只有一比特的输出,这一过程损失了一个自由度,因此是不可逆的,按照热力学,必然会产生一定的热量。但这种不可逆性是不是不可避免的呢?事实上,只要对异或门的操作如图1所示的简单改进,即保留一个无用的比特,该操作就变为可逆的。因此物理原理并没有限制能耗的下限,消除能耗的关键是将不可逆操作改造为可逆操作(见图1)。<BR><BR>图1 不可逆异或门改进为可逆异或门<BR>    Bennett[4]后来更严格地考虑了此问题,并证明了,所有经典不可逆的计算机都可以改造为可逆计算机,而不影响其计算能力。<BR>    经典计算机实际上就是一个通用图灵机。通用图灵机是计算机的抽象数学模型,它由两部分构成:<BR>    [1]具有无限多个存储单元的记录带,每个存储单元内容的变化是有限的,通常用二进制的“O”和“1”来表示;<BR>    [2]一个具有有限内态的读写头,每步操作中读写头可以在记录带上左移或右移一格或不动。图灵机在操作中,读写头根据其内态和当前存储单元的内容,按既定的规则,改变其内态和存储单元的内容。并决定下一步读写头的移动方向。<BR>    上述图灵机的模型是不可逆的,例如,对如下图灵机操作“写存储单元--&gt; 左移一格”,其逆就变成了“左移一格--&gt;写存储单元”,该逆操作不再是一个有效的图灵机操作。但Bennett证明了一个基本结果:对所有不可逆的通用图灵机,都可以找到一个对应的可逆图灵机,使得两者具有完全相同的计算能力和计算效率。<BR>    因为计算机中的每步操作都可以改造为可逆操作,在量子力学中,它就可以用一个么正变换来代表。Benioff[5]最早用量子力学来描述可逆计算机。在量子可逆计算机中,比特的载体成为二能级的量子体系,体系处于|0>和|1>上,但不处于它们的叠加态。量子可逆计算机的研究,其核心任务为,对应于具体的计算,寻找合适的哈密顿量来描述。<BR>    早期的量子可逆计算机,实际上是用量子力学语言表述出来的经典计算机,它没有利用量子力学的本质特性,如量子叠加性和相干性。 Feymann首先指出[6],这些量子特性可能在未来的量子计算机中起本质作用,如用来模拟量子系统。Deutsch[7]找到一类问题,对该类问题,量子计算机存在多项式算法(多项式算法指运算完成的时间与输入二进制数据的长度,即比特的位数存在多项式关系),而经典计算机则需要指数算法。但最具轰动性的结果却是Shor给出的关于大数因子分解的量子多项式算法[8](见第三节),因为此问题在经典公钥体系中有重要应用。Shor的发现掀起了研究量子计算机的热潮,从此后,量子计算机的发展日新月异。<BR>二、量子计算机的构造及实验方案<BR>    正如经典计算机建立在通用图灵机基础之上,量子计算机亦可建立在量子图灵机基础上。量子图灵机可类比于经典计算机的概率运算。前一节提到的通用图灵机的操作是完全确定性的,用q代表当前读写头的状态,s代表当前存储单元内容,d取值为L,R,N,分别代表读写头左移、右移或不动,则在确定性算法中,当q,s给定时,下一步的状态q's'及读写头的运动d完全确定。我们也可以考虑概率算法,即当q,s给定时,图灵机以一定的概率<BR><BR>(q,s,q,s”,d)变换到状态q',s'及实行运动d。概率函数<BR><BR>(q,s,q',s',d)为取值[0,1]的实数,它完全决定了概率图灵机的性质。经典计算机理论证明,对解决某些问题,慨率算法比确定性算法更为有效。<BR>    量子图灵机非常类似于上面描述的经典概率图灵机,现在q,s,q',s'相应地变成了量子态,而慨率函数<BR><BR>(q,s,q',s',d)则变成了取值为复数的概率振幅函数x(q,s,q',s',d),量子图灵机的性质由概率振幅函数确定。正因为现在的运算结果不再按概率叠加,而是按概率振幅叠加,所以量子相干性在量子图灵机中起本质性的作用,这是实现量子并行计算的关键。<BR>    量子计算机可以等效为一个量子图灵机。但量子图灵机是一个抽象的数学模型,如何在物理上构造出量子计算机呢?理论上已证明[9],量子图灵机可以等价为一个量子逻辑电路,因此可以通过一些量子逻辑门的组合来构成量子计算机。量子逻辑门按其输入比特的个数可分为单比特、二比特、及三比特逻辑门等。<BR>    因为量子逻辑门是可逆的,所以其输入和输出比特数相等。量子逻辑门对输入比特进行一个确定的幺正变换,得到输出比特。Deutsch[10]最早考虑了用量子逻辑门来为造计算机的问题,他发现,几乎所有的三比特量子逻辑门都是通用逻辑门。通用逻辑门的含义是指,通过该逻辑门的级联,可以以任意精度逼近任何一个么正操作。后来不少人发展了Deutsch的结果,最后Deutsch和Lloyd各自独立地证明[11],几乎所有的二比特量子逻辑门都是通用的,这里“几乎”是指,二比特通用量子逻辑门的集合是所有二比特逻辑门的集合的一个稠密子集。<BR>     实验上通常用一些具体的量子逻辑门来构造计算机。Barenco等人[12]证明,一个二比特的异或门和对一比特进行任意操作的门可构成一个通用量子门集。相对来说,单比特逻辑门在实验上比较容易实现,现在的不少实验方案都集中干制造量子异或门。量子异或门和经典异或门非常类似,它有2个输入比待:控制比特和受控比特。当控制比特处于|1>态,即在上能级时,受控比特态发生反转。用记号C12代表量子异或操作,其中1,2分别代表控制和受控比特,则有<BR><BR>其中n1,n2取值 0或 1,<BR><BR>表示模2加。已有的用来实现量子异或门的方案包括:利用原子和光腔的相互作用[13];利用冷阱束缚离子[14];或利用电子或核自旋共振[15]。在已实现的方案中,以冷阱束缚离子方案最为成功[16],我们稍详细地介绍这一方案。<BR>    在冷阱束缚离子计算机中,N个离子经激光冷却后,束缚到一个线性势阱或环形势阱中,每个离子的两个内态作为量子比特的载体。离子受到势阱束缚势和相互间库仑排斥势的作用,在平衡位置附近作微小振动,可用简正模描述,量子化后即用声子描述。其中频率最低的模称为质心模。每个离子可以用不同的激光束来控制,在激光束的作用下,离子内态和离子集体振动的元激发——声子发生相互耦合。通过声子传递相互作用,可实现任意两个比特之间的异或操作。类似的想法还可以用来实现多比特的量子逻辑门,但目前只有二比特的量子逻辑门得到了具体的实验证实。<BR>    原子光腔方案也有实验报道。原子和光腔的相互作用是量子光学中比较成熟的实验,但此方案的弱点是不易级联,难以形成复杂的逻辑网络。Gershenfeld等最近指出[15],利用宏观样品的自旋共振,经适当操作,也可以用来实现量子逻辑门,这种方案稳定性好,在理论上被认为很有前途。实验上,今年初美国的MIT和Los Alamos小组已实现了包含 3个量子比特的自旋系统,并成功地执行了1十l=2的运算。<BR>三、量子计算机的优越性及其应用<BR>    与经典计算机相比,量子计算机最重要的优越性体现在量子并行计算上。因为量子并行处理,一些利用经典计算机只存在指数算法的问题,利用量子计算机却存在量子多项式算法,这方面最著名的一个例子当推Shor在1994年给出的关于大数因子分解的量子多项式算法。<BR>    大数的因子分解是数学中的一个传统难题,现在人们普遍相信,大数的因子分解不存在经典的多项式算法,这一结果在密码学中有重要应用。密码学的一个新的方向是实现公钥体制。公钥体制中,加密密钥公开,可以像电话号码一样通知对方,而脱密密钥是保密的,这样仍然可以实现保密通信。公银体制的核心在于,从加密密钥不能导致脱密密钥,即它们之间不存在有效的算法。最著名的一个公钥系统由Rivet,Shamir和 Adleman提出,它的安全性就基于大数因子分解,因为对于经典计算机,后者不存在有效的多项式算法。但Shor却证明,利用量子计算机,可以在多项式时间内将大数分解,这一结果向RSA公钥系统的安全性提出严重挑战。<BR>    Shor的算法的主要思想为,首先利用数论中的一些定理,将大数的因子分解转化为求一个函数的周期问题,而后者可以用量子快速傅里叶变换(FFT)在多项式步骤内完成。<BR>    除了进行一些超快速计算外,量子计算机另一方面的重要用途是用来模拟量子系统。早在1982年,Feymann就猜测,量子计算机可以用来模拟一切局域量子系统,这一猜想,在1996年由 Lloyd证明为正确的[17]。首先得指出,模拟量子系统是经典计算机无法胜任的工作。作为一个简单的例子,考虑由40个自旋为1/2的粒子构成的一个量子系统,利用经典计算机来模拟,至少需要内存为240=106M,而计算其时间演化,就需要求一个 240 X 24O维矩阵的指数,这一般来讲,是无法完成的。而利用量子计算机,上述问题就变得轻而易举,只需要40个量子比特,就足以用来模拟。Lloyd进一步指出,大约需要几百至几千个量子比特,即可精确地模拟一些具有连续变量的量子系统,例如格点规范理论和一些量子引力模拟。这些结果表明,模拟量子系统的演化,很可能成为量子计算机的一个主要用途。<BR>四、量子计算的困难及其克服途径<BR>    量子计算的优越性主要体现在量子并行处理上,无论是量子并行计算还是量子模拟,都本质性地利用了量子相干性。失去了量子相干性,量子计算的优越性就消失殆尽。但不幸的是,在实际系统中,量子相干性却很难保持。消相干(即量子相干性的衰减)主要源于系统和外界环境的耦合。因为在量子计算机中,执行运算的量子比特不是一个孤立系统,它会与外部环境发生相互作用,其作用结果即导致消相干。Uruh定量分析了消相干效应,结果表明,量子相干性的指数衰减不可避免。Unruh的分析揭示了消相干的严重性,这一结果无疑是对量子计算机的信奉者的当头一棒。<BR>    因为量子计算机本质性地利用了量子相干性,相干性的丢失就会导致运算结果出错,这就是量子错误。除了消相干会不可避免地导致量子错误外,其他一些技术原因,例如量子门操作中的误差等,也会导致量子错误。因此,现在的关键问题就变成,在门操作和量子存储都有可能出错的前提下,如何进行可靠的量子运算?<BR>    Shor在此方向取得一个本质性的进展,这就是量子纠错的思想[19]。量子纠错是经典纠错码的量子类比。在三四十年代,经典计算机刚提出时,也曾遇到类似的法难。当时就有人指出,计算机中,如果任一步门操作或存储发生错误,就会导致最后的运算结果面目全非,而在实际中,随机的出错总是不可避免的。经典计算机解决此问题,采取的是冗余编码方案。我们以最简单的重复码来说明其编码思想。如果输入1比特信号0,现在可通过引入冗余度将其编码为3比特信号000,如果在存储中,3比特中任一比特发生错误,如变成001,则可以通过比较这3比特信号,按照少数服从多数的原则,找到出错的比特,并将其纠正到正确信号000。这样虽然在操作中有一定的错误率。计算机仍然能进行可靠运算。Shor的编码就是这种思想的量子类比,但在量子情况下,问题变得复杂得多。量子运算不再限制于态 |0>和|1>,而是二维态空间中的所有态,因此量子错误的自由度也就大得多。另一个更本质的原因为,量子力学中有个著名的量子态不可克隆定理[20](我们将另撰文介绍),它指出,对一个任意的量子态进行复制是不可能的。因此对1个单比特输入态|<BR><BR>>,无法将其编码为3比特输入态|<BR><BR>>|<BR><BR>>|<BR><BR>>。这些困难表明,任何经典码的简单类比,在量子力学中是行不通的。但Shor却给出了一个完全新颖的编码,他利用9个量子比特来编码1比特信息,通过此编码,可纠正9个比特中任一比特所有可能的量子错误。(关于量子纠错更进一步的介绍,可参看后续文章(《量子编码》)。 Shor的结果极其振奋人心,在此基础上,各种量子纠错码接二连三地被提出。最新的结果(尚未出版)表明,在量子计算机中,只要门操作和线路传输中的错误率低于一定的阈值,就可以进行任意精度的量子计算。这些结果显示出,在通往量子计算的征途上,已经不存在任何原则性的障碍。<BR>五、展望<BR>    量子计算机的发展方兴未艾。纵观其发展过程,量子计算机研究中最突出的特点是物理学的原理和计算机科学的交融和相互促进。计算机不再是一个抽象的数学模型,物理原理对计算机计算能力和效率的限制愈来愈引起人们的重视。自从Shor提出大数的因子分解的量子算法后,基于量子并行处理的一些超快速算法接连地被发现,现在已形成一门新的研究领域:量子复杂性理论。另一方面,量子计算机中消相干的克服,在理论上和实验上都是人们最关注的问题,量予纠错方案被寄予高度厚望,在1996年,量子纠错理论成为研究中最热门的课题。<BR>    与量子计算理论上的突飞猛进相比,量子计算机的实验方案还很初步。现在的实验只制备出单个的量子逻辑门,远未达到实现计算所需要的逻辑门网络。实验物理学家正在寻找更有效的制备途径,以克服消相干并实现逻辑门的级联。理论上虽然已提出各种量子纠错码,但在实验上如何利用量子编码来有效地克服消相干,这还是一个富于挑战性的问题。我们对此已进行了一系列研究(尚未出版),其目的是,根据量子计算机的具体物理模型,来寻找相应的最有效的消相干克服方案。总体来讲,实现量子计算,已经不存在原则性的困难。按照现在的发展速度,可以比较肯定地预计,在不远的将来,量子计算机一定会成为现实,虽然这中间还会有一段艰难而曲折的道路。</P>
<P>我前几天刚看了一篇报道是采访一个量子计算机研究专家</P>
<P>他说目前世界上有4个实验机构实现了7量子的什么研究,两个在中国两个在美国</P>
<P>不知道具体情况怎么样?</P>
真正的科技前沿啊[em05][em05]
我只关心程序到时候是什么样子的