世界首台可编程通用量子计算机美国问世(zt)

来源:百度文库 编辑:超级军网 时间:2024/04/24 21:39:50
http://www.sciam.com.cn/html/rem ... 2009/1116/7344.html
世界首台可编程通用量子计算机美国问世

新浪科技讯 北京时间11月16日消息,据美国《新科学家》网站报道,世界上首台可编程的通用量子计算机近日在美国面世。不过根据初步的测试程序显示,该计算机还存在部分难题需要进一步解决和改善。科学家们认为,可编程量子计算机距离实际应用已为期不远。

     早在一年前,美国国家标准技术研究院的科学家们已经研制出一台可处理2量子比特数据的量子计算机。由于量子比特比传统计算机中的“0”和“1” 比特可以存储更多的信息,因此量子计算机的运行效率和功能也将大大突破传统计算机。据科学家介绍,这种量子计算机可用作各种大信息量数据的处理,如密码分析和密码破译等。

     在传统计算机中,采用的是二进制“0”和“1”比特物理逻辑门技术来处理信息,而在量子计算机中,采用的则是量子逻辑门技术来处理数据。对于这种技术,美国国家标准技术研究院科学家大卫-汉内克解释说,“比如,一个简单的单一量子比特门,可以从‘0’转换成‘1’,也可以从‘1’转换成为 ‘0’。”这种转换就使得计算机存储能力不仅仅是以倍数级增加。与传统计算机的物理逻辑门不同的是,美国国家标准技术研究院所研制的这台可编程量子计算机中的量子逻辑门均已编码成为一个激光脉冲。这台实验量子计算机使用铍离子来存储量子比特。当激光脉冲量子逻辑门对量子比特进行简单逻辑操作时,铍离子就开始旋转运行。制造一个量子逻辑门的方法首先要设计一系列激光脉冲来操纵铍离子进行数据处理,然后再利用另一个激光脉冲来读取计算结果。

     这台可编程量子计算机的核心部件是一个标有金黄图案的铝晶片,其中包含了一个直径大约200微米的微型电磁圈。在这个电磁圈中,科学家放置了四个离子,其中两个是镁离子,两个是铍离子。镁离子的作用是“稳定剂”,它可以消除离子链的意外振动,以保持计算机的稳定性。由于量子比特可能产生多种操作可能,因此科学家们在实验中随机选取了160可能操作进行了演示,来验证处理器的通用性。每次操作都用31个不同的量子逻辑门去将2个量子比特编码至一个激光脉冲中。

     科学家们将这160种程序每一种都运行了900次。通过对测试数据对比和理论预测,科学家们发现,这个芯片基本可以按既定程序工作。不过,科学家们也承认,它的准确率目前只有79%。汉内克表示,“每个量子逻辑门的准确率均为90%以上,但是当所有量子逻辑门都综合起来使用,整体准确率却下降到 79%。”对此,科学家认为,造成这种误差主要是因为每次激光脉冲的强度不同所造成的。汉内克解释说,“由于这些脉冲不是直线的,它们是波动的,因此就会引起这种误差。此外,光线的散射和反射等原因,也会造成这种误差的产生。”

     科学家们相信,随着更多的测试和改进,这种误差将会越来越小。通过改进激光的稳定性和减少光学硬件设备的误差,可以提高芯片运行的准确率。直到芯片的准确率提升到99.99%,它才可以作为量子计算机的主要部件使用,这台可编程量子计算机才可真正地投入实际应用。(彬彬)http://www.sciam.com.cn/html/rem ... 2009/1116/7344.html
世界首台可编程通用量子计算机美国问世

新浪科技讯 北京时间11月16日消息,据美国《新科学家》网站报道,世界上首台可编程的通用量子计算机近日在美国面世。不过根据初步的测试程序显示,该计算机还存在部分难题需要进一步解决和改善。科学家们认为,可编程量子计算机距离实际应用已为期不远。

     早在一年前,美国国家标准技术研究院的科学家们已经研制出一台可处理2量子比特数据的量子计算机。由于量子比特比传统计算机中的“0”和“1” 比特可以存储更多的信息,因此量子计算机的运行效率和功能也将大大突破传统计算机。据科学家介绍,这种量子计算机可用作各种大信息量数据的处理,如密码分析和密码破译等。

     在传统计算机中,采用的是二进制“0”和“1”比特物理逻辑门技术来处理信息,而在量子计算机中,采用的则是量子逻辑门技术来处理数据。对于这种技术,美国国家标准技术研究院科学家大卫-汉内克解释说,“比如,一个简单的单一量子比特门,可以从‘0’转换成‘1’,也可以从‘1’转换成为 ‘0’。”这种转换就使得计算机存储能力不仅仅是以倍数级增加。与传统计算机的物理逻辑门不同的是,美国国家标准技术研究院所研制的这台可编程量子计算机中的量子逻辑门均已编码成为一个激光脉冲。这台实验量子计算机使用铍离子来存储量子比特。当激光脉冲量子逻辑门对量子比特进行简单逻辑操作时,铍离子就开始旋转运行。制造一个量子逻辑门的方法首先要设计一系列激光脉冲来操纵铍离子进行数据处理,然后再利用另一个激光脉冲来读取计算结果。

     这台可编程量子计算机的核心部件是一个标有金黄图案的铝晶片,其中包含了一个直径大约200微米的微型电磁圈。在这个电磁圈中,科学家放置了四个离子,其中两个是镁离子,两个是铍离子。镁离子的作用是“稳定剂”,它可以消除离子链的意外振动,以保持计算机的稳定性。由于量子比特可能产生多种操作可能,因此科学家们在实验中随机选取了160可能操作进行了演示,来验证处理器的通用性。每次操作都用31个不同的量子逻辑门去将2个量子比特编码至一个激光脉冲中。

     科学家们将这160种程序每一种都运行了900次。通过对测试数据对比和理论预测,科学家们发现,这个芯片基本可以按既定程序工作。不过,科学家们也承认,它的准确率目前只有79%。汉内克表示,“每个量子逻辑门的准确率均为90%以上,但是当所有量子逻辑门都综合起来使用,整体准确率却下降到 79%。”对此,科学家认为,造成这种误差主要是因为每次激光脉冲的强度不同所造成的。汉内克解释说,“由于这些脉冲不是直线的,它们是波动的,因此就会引起这种误差。此外,光线的散射和反射等原因,也会造成这种误差的产生。”

     科学家们相信,随着更多的测试和改进,这种误差将会越来越小。通过改进激光的稳定性和减少光学硬件设备的误差,可以提高芯片运行的准确率。直到芯片的准确率提升到99.99%,它才可以作为量子计算机的主要部件使用,这台可编程量子计算机才可真正地投入实际应用。(彬彬)
专家说量子计算机会在2030后诞生:o http://www.cnr.cn/allnews/200910/t20091029_505556341.html
这个意义太了不起了。  看到此贴,有点小时候在夜空看星星的感觉。
对人类意义重大啊。
这东西要是成熟了,现在什么500强都是渣啊。。。[:a1:]


听说这个领域中国世界领先。前一段时间还有人提过。

不过总觉得实用性还遥远,别人追赶上来的可能性还很大。

听说这个领域中国世界领先。前一段时间还有人提过。

不过总觉得实用性还遥远,别人追赶上来的可能性还很大。
TG现在在这几个奇幻的项目上实力都不弱, 什么隐形衣啊, 什么量子计算/通讯/加密之类, 批科研经费那群外行,别的不懂,这些奇幻的玩意人家还是很推崇的,现在搞物理的,搞材料的,大批大批为了拿钱都往这方向靠拢,所以成果还是可以的。
姑妄看之就好,整个量子物理相关,理论联系实际的玩意当中
量子计算是相当相当虚的一个方向,不管是国内还是国外都一样,量子通讯都稍微靠谱点

实现量子计算的过程倒还有点价值,量子计算本身,在可以预见的将来
究竟能有多大用,是一个巨大无比的问号

不但现在这计算性能还只存在于纸面,而且整个理论基础也亟待补足
而且很多研究也已经证明这玩意至少没有大家原初yy的那么强劲
这么说呢? 任何科学的研究进展都不会是一条平滑的曲线。 一步一步技术关口突破后,到了 一个临界点,进展会想飞一样的跑起来。
TG现在在这几个奇幻的项目上实力都不弱, 什么隐形衣啊, 什么量子计算/通讯/加密之类, 批科研经费那群外行,别的不懂,这些奇幻的玩意人家还是很推崇的,现在搞物理的,搞材料的,大批大批为了拿钱都往这方向靠拢,所以成果还是可以的。


很好很好!TG在传统科技方面落后太多,想追也不太容易。反而在前沿科技上机会大得多。
oldwatch 发表于 2009-11-16 22:36
ShadowSnake 发表于 2009-11-16 22:13
miaomiaomiao 发表于 2009-11-16 22:17
bessel 发表于 2009-11-17 06:52
顺带跑个题

我一直隐约觉得大因式分解很可能就是个P问题
oldwatch 发表于 2009-11-17 08:34
开根号也算不错了,指数上的数字小一半,现在的代码优化只是让系数上的数字小一半,就有无数的人去研究了。
妄看之就好,整个量子物理相关,理论联系实际的玩意当中
量子计算是相当相当虚的一个方向,不管是国内还是国外都一样,量子通讯都稍微靠谱点

实现量子计算的过程倒还有点价值,量子计算本身,在可以预见的将来
究竟能有多大用,是一个巨大无比的问号

不但现在这计算性能还只存在于纸面,而且整个理论基础也亟待补足
而且很多研究也已经证明这玩意至少没有大家原初yy的那么强劲



那兄弟觉得现代计算机技术的继承者会是哪个?
TripleX 发表于 2009-11-17 08:36

按照某些说法,这个计算规模的下降(根号)已经是理论极限了
也就是说量子计算机已经是宇宙间终极计算工具
NP问题可能真的是不可逾越的高峰……

ps:
想要达到理论极限,还是得玩许多许多算法魔术才行
必须要找到法子来充分利用退相干时的状态相消这个“超级并发计算”能力
才能达到这个理论极限

现在整来整去就是一个大因式分解
多半就是因为只有这个难题找到了“量子算法”……
真玄乎啊

np问题为啥量子计算机有可能化简呢?
谁来科普下
kimberlyshaw 发表于 2009-11-17 10:18

简单点说呢,量子计算就是利用了多个量子态可以同时存在
(一如薛定谔的猫,或死或活)
先把一个问题中所有可能的选项/备选答案
设法用纠缠的多重量子态描述或者说表达出来
(往盒子里关进一群猫)

然后引发退相干(打开盒子),波函数塌陷
如果设计正确的话,退相干过程中所有错误的解答都会自动被消掉
(互相pk?)
最后得到的结果就是正确答案   

某些理论认为量子计算是人类计算能力的极限
oldwatch 发表于 2009-11-17 08:34
谁让咱们是码农哩
看到计算两字当然首先考虑货郎担啊,箱子啊,诸如此类
再说了太多科普文章拿计算能力做谈资了

量子计算做模拟的前途很大,这个层次的仿真是人类过往不敢想象的
量子计算研究本身也会带动无数的新研究

不过就量子计算机而言,就这么回事了
完全搞不懂 应该是好东西 支持
oldwatch 发表于 2009-11-17 11:03

模拟计算机的逆袭……:L
jiandingzhe 发表于 2009-11-17 12:08

模拟计算机是元老啊

想当年ENIAC诞生之前全指着模拟计算机解微分方程哩……
oldwatch 发表于 2009-11-17 12:23

不不不,好歹还有手摇数字、机械数字……:D
这个东西邪恶啊
oldwatch 发表于 2009-11-17 12:23
大大的邪恶,DM满赛。。。。
在人工智能行业, 量子计算机可以说是众望所归哟。
作为开发人员, 一般也只关心这家伙处理四则运算的能力的速度, 和精度。 还有处理并发线程的能力。

什么算法都不重要。 就在现在也没有那款cpu会专门去支持哪种算法。 有些cpu甚至没有处理乘法的能力。靠操作系统来帮它分解。
偶作为一个不明真相的科普文章的读者群众,而且还科普读物也看得不多的群众, 还是要乱侃两句的。

不要小看科普读物, 能把复杂道理说得简单的人不一定简单。 把复杂道理说得更复杂的倒是非常简单。

道可道,非常道, 其实很多复杂的东西都有一脉相承的道理。

算盘的计算核心方式  ---》位移
现代计算机的计算核心方式--》 位移
量子计算机的核心计算方式--》      位移 ? (这个不太好说, 感觉上因该大差不差)

个人乱说了, 何况别人凤凰网马鼎盛乱说也还不是有大量粉丝的嘛。
{:wu:} 喜欢乱说者飘过。。。
gasover 发表于 2009-11-18 12:33

准确的说,是编译系统负责针对cpu分解问题,而不是操作系统
oldwatch 发表于 2009-11-18 17:56


{:Bingo:} 和操作系统也不是完全没有关系, 因为操作系统的作用就是为了屏蔽不同硬件的差异,而提供统一的操作系统8/16/32级汇编。 不然如果由编译器来决定的话,应用程序员就要针对不同的cpu来写不同的程序了(世上就不存在跨硬件通用软件了)。我们常人有时候不细心,就会搞错哟。 你说CD怎么不给咱们代码苦工专门搞一个区呢,呵呵。
准确的说,是编译系统负责针对cpu分解问题,而不是操作系统
oldwatch 发表于 2009-11-18 17:56


{:Bingo:} 和操作系统也不是完全没有关系, 因为操作系统的作用就是为了屏蔽不同硬件的差异,而提供统一的操作系统8/16/32级汇编。 不然如果由编译器来决定的话,应用程序员就要针对不同的cpu来写不同的程序了(世上就不存在跨硬件通用软件了)。我们常人有时候不细心,就会搞错哟。 你说CD怎么不给咱们代码苦工专门搞一个区呢,呵呵。
TG在传统科技方面落后太多,想追也不太容易。反而在前沿科技上机会大得多。
gasover 发表于 2009-11-18 18:29
OS提供的是硬件IO的抽象,指令集的抽象是编译器实现的。
比如0xac34 + 0x1f78 对应成一条十六位加法指令,还是两条带进位的八位加法指令,是由编译器决定的。
用隔壁版面的概念来说的话

程序源码相当于设计图纸,是人画将出来的
编译器相当于机床/流水线/车间/工厂,负责生产出能执行的代码
os则相当于飞机的飞控,负责接收驾驶员/用户的指令,管理各种设备

OS提供的是硬件IO的抽象,指令集的抽象是编译器实现的。
比如0xac34 + 0x1f78 对应成一条十六位加法指令 ...
TripleX 发表于 2009-11-18 18:56


或许我们说的不是同一问题。这样说吧, 3*3,  用c编程器编程成操作系统汇编, 肯定依然是 3*3而不管具体的硬件实现,  然后把程序拿到不同的机器上,最终运算有的会是3*3, 有的会是 3+3+3。 或者你直接用操作系统汇编写成PE文件也同理(比如很多朋友为了提高性能,直接在c++编译器里面写操作系统汇编而绕过语言编译器)。  没有见到最终运行机的时候,语言编译器是无权决定到底怎么加的。


如果语言编译器决定了拆分成3+3+3, 或者干脆编译成3+3+3, 那么到了客户终端机, 我终端机cpu明明有乘法器,那该怎么办?那不是浪费性能么(这活是操作系统的解释器干的)
OS提供的是硬件IO的抽象,指令集的抽象是编译器实现的。
比如0xac34 + 0x1f78 对应成一条十六位加法指令 ...
TripleX 发表于 2009-11-18 18:56


或许我们说的不是同一问题。这样说吧, 3*3,  用c编程器编程成操作系统汇编, 肯定依然是 3*3而不管具体的硬件实现,  然后把程序拿到不同的机器上,最终运算有的会是3*3, 有的会是 3+3+3。 或者你直接用操作系统汇编写成PE文件也同理(比如很多朋友为了提高性能,直接在c++编译器里面写操作系统汇编而绕过语言编译器)。  没有见到最终运行机的时候,语言编译器是无权决定到底怎么加的。


如果语言编译器决定了拆分成3+3+3, 或者干脆编译成3+3+3, 那么到了客户终端机, 我终端机cpu明明有乘法器,那该怎么办?那不是浪费性能么(这活是操作系统的解释器干的)
同学,你可以去复习《编译原理》了
肯定依然是 3*3而不管具体的硬件实现

这个结论就是大错特错

首先确认我们讨论的是cpp编译器
而不是类似于java的字节码解释执行,也不是类似于python的直接解释执行

编译器生成的目标代码必然是硬件相关的
某种意义上说它与目标硬件的相关性远远强于对目标OS的相关性
目标代码和目标OS的关系充其量是联编系统功能接口与生成特定的可执行文件格式
但是目标硬件直接决定了每一行目标代码的写法
。。。。 怎么说呢? 你解释一下如果我编译成了 3+3+3,
遇到有乘法机的cpu改怎么办?