现在个人电脑的真实计算能力

来源:百度文库 编辑:超级军网 时间:2024/04/28 07:29:04
I)现在个人电脑的真实计算能力究竟如何了呢。。。运算速度肯定是一个很复杂的东西。。但增长了多少?

II)相当于每秒多少次呢?比如现在的Q6600 或者用来发这个帖的几年前的PM750。。。

III) 有没有人能给出一条主流个人pc运算速度随年代增长的曲线?增长的速度加快了还是减慢了。

PS:现在的pc比十几二十年前的所谓巨型机如何,速度和完整的计算有差别吗?I)现在个人电脑的真实计算能力究竟如何了呢。。。运算速度肯定是一个很复杂的东西。。但增长了多少?

II)相当于每秒多少次呢?比如现在的Q6600 或者用来发这个帖的几年前的PM750。。。

III) 有没有人能给出一条主流个人pc运算速度随年代增长的曲线?增长的速度加快了还是减慢了。

PS:现在的pc比十几二十年前的所谓巨型机如何,速度和完整的计算有差别吗?
]]
呵呵 坛子里面的高人不少啊
P3 750可以单周期4条单精度浮点运算, 可以达到3Gflops
[:a5:] 还在用PM740的含泪飘过.
原帖由 roadrunner 于 2008-12-10 19:25 发表
P3 750可以单周期4条单精度浮点运算, 可以达到3Gflops

忘记了[:a1:]
改一下
算的再快遇到低效算法也没戏
好吧。我说的是PM750.不是p3 750

再者。这个速度和巨型机排行那些速度有可比性吗

楼上说的对。身边有几个做算法的牛人。
原帖由 绝望的人流浪 于 2008-12-10 21:31 发表
好吧。我说的是PM750.不是p3 750

再者。这个速度和巨型机排行那些速度有可比性吗


DOTHAN?
1.86G 单核  双精度浮点 3.72Gflops  单精度 7.44Gflops
533前端总线,带宽为 4.2GB/S   内存DDR2-533?  带宽同样是4.2G
已经有PCIE总线,总结完毕

就单核而言,Q6600并行度全面翻番
内存带宽大幅增加


至于和以前的超级计算机比,同样浮点处理的级别应该相差无几了,IO也应该更强
不过可靠性和精度么;P 要求不是一个级别的,计算机是会出错的
我记得SSE2那个双精度实际数据上面只有48bit,以前X87好像才是64bit,求科普
GPU的运算速度也上来了。
原帖由 simon_lx 于 2008-12-10 22:46 发表
GPU的运算速度也上来了。

暂时,GPU还只是单精度浮点运算怪物
双精度浮点要弱很多
只比目前的CPU强一点,GPU要真正强大,必须等intel
满足于高清AV流畅观看的飘过!:L
现在BD AV不少了:D
粗略估计可以按照主频x内核x指令流水条数,
实际上会低。
考虑到Cache命中,实际性能还要低。Cluster继续下降。
具体多少,要实际测。
不过说实话,现在的pc已经很强了。就算是理论性能的20%也足够多数计算应用了。
那现在的pc可以干以前巨型机的活不?
人家问的好像是:现在的个人计算机的运算能力相当于多少次/s;与当年的巨型机比谁快;等等。
哎!计算机的运算能力(多少次每秒)是怎么得来的?
原帖由 gmt+ 于 2008-12-11 09:16 发表
人家问的好像是:现在的个人计算机的运算能力相当于多少次/s;与当年的巨型机比谁快;等等。
哎!计算机的运算能力(多少次每秒)是怎么得来的?

我回答很标准了啊
多少次单精度浮点,多少次双精度浮点

怎么得来的么,你先得知道这东西能跑多快,然后知道几个一起跑
乘一下就可以了
比如Q6600,单个内核计算,2.4G主频,一个时钟周期同时跑4个双精度浮点(SSE2)
每秒不就是9.6G了嘛,大不了再x4算作全cpu的
理论速度很容易计算的
请参考下面的介绍:
Tesla个人超级计算机拥有“工作站的价格,超级计算机的性能,适合个人操作,非常简单易用”等几大特点。在外观上就如同一台可以放在桌面上的工作站一样,内置一颗四核CPU 和3-4个GPU单元模块,拥有12-16GB系统内存、1200-1350W电源,可以直接使用办公环境下标准的电源。由于总共拥有960个GPU核心,使其浮点计算性能高达每秒4万亿次,是当前台式工作站的250倍,而售价不到1万美元,跟相同性能水平的传统超级计算集群相比,价格只有1%。要知道,就在四年前,上海超级计算中心所采用的10万亿次超级计算机曙光4000A需要近亿元人民币,占地1/4个足球场。
什么操作系统能够利用这么大的运算能力?
那为什么一个破瘟到死也跑得这么吃力呢?
图形界面。杀毒软件。硬盘速度的瓶颈。
老战斧好像是8088的处理器。
原帖由 Dr.BT 于 2008-12-10 22:43 发表

不过可靠性和精度么 要求不是一个级别的,计算机是会出错的
我记得SSE2那个双精度实际数据上面只有48bit,以前X87好像才是64bit,求科普

sse双精度尾数只有48bit,x87的双精度扩展模式有80位,尾数好像就是64位
其实问题也并不全在位数上,关键是有限精度下每次计算的误差会累积的----同样64位迭代几万次后有的误差还在小数点后好几位,有的却已经百分之几百了。
所以专用的运算器以及指令很重要,可以靠运算器中的资源降低误差的累积。运算中的一些异常处理消耗的时钟周期数百上千----有时候干脆就是用中断调用整段的程序来解决。
]]
除了“非常简单易用”以外,都是真话。

另外和传统计算机相比是不公平的。
原帖由 hefengkh 于 2008-12-12 00:37 发表
请参考下面的介绍:
Tesla个人超级计算机拥有“工作站的价格,超级计算机的性能,适合个人操作,非常简单易用”等几大特点。在外观上就如同一台可以放在桌面上的工作站一样,内置一颗四核CPU 和3-4个GPU单元模块,拥 ...
原帖由 spinup 于 2008-12-12 17:52 发表

sse双精度尾数只有48bit,x87的双精度扩展模式有80位,尾数好像就是64位
其实问题也并不全在位数上,关键是有限精度下每次计算的误差会累积的----同样64位迭代几万次后有的误差还在小数点后好几位,有的却已经百分 ...


KAO, 这个ID好眼熟, 跑来泡军坛来了
原帖由 bessel 于 2008-12-12 20:44 发表
你从哪里看来得sse尾数是48位的?莫非sse不支持ieee754浮点标准,这东西定义出来可有几十年了。
俄地神啊。另外请科普一下“专用的运算器以及指令”来克服累计误差吧。

:L


.....跟着人家话头下来的....sse双精度当然要符合ieee754规范,53位尾数......扩展双精度是64位或者更高的尾数。

至于“专用运算器和指令”这说法也不是很严谨。不过乘除之类的指令如果要保持精度的话,运算当中有效位数是要扩张的。用通用ALU来实现这类浮点运算的话几次规格化舍入后精度就差很多----64位精度的操作数运算的结果虽然还是64位,但是实际有效位数少很多。乘法器之类的运算器则可以只在出结果时候才规格化一次,64位操作数出结果精度仍然是完整的64位。
指令方面比如SSE之类的指令集都提供MAC指令,就是加乘融合指令,这样做加乘连在一起的指令就可以再少一次规格化,少一次舍入的误差。
原帖由 roadrunner 于 2008-12-12 22:56 发表


KAO, 这个ID好眼熟, 跑来泡军坛来了

.....这里熟悉的id多的是.....我还知道有几个id虽然与pci不一样,人倒是一样的.........
]]
呵呵,我做CUDA的,用的GPU
GPU通用计算现在发展起来了,CPU的理论计算性能和GPU比只是玩具而已
当然,GPU不能完成所有的计算,但是在科学计算领域还是大有可为的
如果使用CUDA或者openCL发挥GPU通用计算能力,超过集群是很容易的
这几年里,GPU会在世界五百强排名里发挥更大作用
GTX280理论单精度浮点933Gflops单精度117Gflops
像roadrunner那样的机器会多一些,但是就机器的形态来说,一堆带着gpu或者cell一类的专用部件的机器还是以集群的形式
组成的。

gtx280的双精度那么少的话对于cpu来说没有优势哦,4核心cpu也有50G的理论双精度能力,而GPU的并行度太高,如果效率上不去做
双精度计算的话不比cpu快。

俺不是给gpu泼冷水,俺相信gpu有很大的作用,但是在top500里未必。

原帖由 DARKSTORM 于 2008-12-14 20:40 发表
呵呵,我做CUDA的,用的GPU
GPU通用计算现在发展起来了,CPU的理论计算性能和GPU比只是玩具而已
当然,GPU不能完成所有的计算,但是在科学计算领域还是大有可为的
如果使用CUDA或者openCL发挥GPU通用计算能力,超过集群是很容易的
这几年里,GPU会在世界五百强排名里发挥更大作用
GTX280理论单精度浮点933Gflops单精度117Gflops
GPU还是在高速发展阶段, 而且其暴力峰值浮点能力还有内存带宽能力都远远超过CPU

GTX280的双精度浮点太烂, 但是RV770(4870)的双精度浮点要好得多, 比GTX280强几倍.

而且未来一年内, GPU的峰值浮点能力再往上提个一倍以上是没问题的, CPU的峰值浮点性能好久都没大幅增长了吧.

在GPU的峰值能力还在大幅度提升的情况下, 就算其效率再低下, 都必定还是会引起注意的.
看来现在是没有太统计的标准来衡量了。。。巨型机一直在用巨型机的标准。pc一直在用pc的标准?
我建议你可以用市场价来做标准
原帖由 绝望的人流浪 于 2008-12-17 07:07 发表
看来现在是没有太统计的标准来衡量了。。。巨型机一直在用巨型机的标准。pc一直在用pc的标准?

前面不是有人解释过了?

实际上以前用MIPS(百万指令每秒)这个指标。基准是某款VAX-11的性能(算作1mips)用这个指标,pentium时代pc处理器就有几十到上百mips。现在的pc处理器则大概有数千甚至数万mips。
不过这个指标因为技术的发展被淘汰掉了。现在比较普及的是spec指标,用一系列程序来评估各计算机的性能。参见www.spec.org。

也就是说巨型机和pc可以使用相同的标准。目前大量用于科学计算的集群本身就是使用pc处理器的,目前中小规模集群使用数百到数千pc处理器,大型集群上万。按摩尔定律pc处理器每1年半-2年性能倍翻来看,pc的性能大致可以与15年前的巨型机相比。
cpu spec指标比较适合用来衡量CPU性能或者单节点并行机器的性能, 用在巨型机上我认为它难以反映节点间带宽指标.  LINPACK对节点间带宽的反映也不足够. 应当说现在还是没有什么很万能的巨型机性能衡量指标.
原帖由 roadrunner 于 2008-12-15 02:02 发表
GPU还是在高速发展阶段, 而且其暴力峰值浮点能力还有内存带宽能力都远远超过CPU

GTX280的双精度浮点太烂, 但是RV770(4870)的双精度浮点要好得多, 比GTX280强几倍.

而且未来一年内, GPU的峰值浮点能力再往上提个 ...

曾经听过一个讲座,未来的方向之一是GPGPU
原帖由 spinup 于 2008-12-17 17:37 发表

前面不是有人解释过了?

实际上以前用MIPS(百万指令每秒)这个指标。基准是某款VAX-11的性能(算作1mips)用这个指标,pentium时代pc处理器就有几十到上百mips。现在的pc处理器则大概有数千甚至数万mips。
不 ...



这个网站真不错。。看一看明白好多。
体系结构的发展越来越围绕着应用了。

你的目标应用特征是什么,你才能确定某些关键部分的参数,才能选定你要走的路线。

spec这类benchmark的问题一是过于偏重一小部分科学计算程序,再就是对目前越来越夸张的片上多核,GPGPU这种结构,不能反映其瓶颈。(姑且这么说,表达不清)