相当于250台x86服务器 NVIDIA发布帕斯卡架构深度学习超 ...

来源:百度文库 编辑:超级军网 时间:2024/04/29 02:12:35
英伟达发布了一款定位于深度学习的超级计算机DGX-1。拥有8个帕斯卡架构GP100核心的Tesla P100 GPU,以及7TB的SSD。售价为12900美元。今年Q4面市。在昨晚开幕的英伟达GTC(GPU Technology Conference)2016大会上,英伟达不仅按照预料地发布了16nm FinFET制程超级核弹帕斯卡(Pascal)显卡,最让人惊叹的还是一款定位于深度学习的超级计算机DGX-1。



DGX-1拥有8颗帕斯卡架构GP100核心的Tesla P100 GPU,以及7TB的SSD,由两颗16核心的Xeon E5-2698v3以及512GB的DDR4内存驱动。售价为129000美元(835378.2元人民币),今年Q4面市。

关于Pascal的架构大家都知道了,虽然本次没有推出面向消费市场的GeForce显卡,而是专业计算卡Tesla P100,但是内部架构都是一脉相承。Tesla P100采用顶级大核心GP100,遗憾的是并非完整的架构。即只有3584个流处理器,而非完整的3840 CUDA。新架构16nm FinFET制程,核心面积达到了610平方毫米,由恐怖的150亿晶体管组成,第二代高带宽显存(HBM2)组成了16GB的显存,带宽达到了768GB/s。8张GPU一共组成了128GB的显存。浮点运算(FP16)达到了170TFlops(官方宣称相当于250个x86服务器),单精度为10.6TFlops双精度,双精度5.3TFlops。功耗3200W。





官方宣称DGX-1相当于250个x86服务器



以往25个小时才能消化的运算任务现在只需要2小时



DGX-1并不大,也许AlphaGO的下一代将大大缩小

近几年英伟达还是很有野心的,一直在试图扩张视觉计算市场,冲击其他领域。深度学习和汽车自动驾驶已经成为老黄的工作重心,也在不断的推出周边的设备和处理器。今天猛然一看发现嘉宾还有IBM Watson项目的CTO Rob High和丰田研究中心的CEO Gill Pratt。



http://www.cnbeta.com/articles/490089.htm英伟达发布了一款定位于深度学习的超级计算机DGX-1。拥有8个帕斯卡架构GP100核心的Tesla P100 GPU,以及7TB的SSD。售价为12900美元。今年Q4面市。在昨晚开幕的英伟达GTC(GPU Technology Conference)2016大会上,英伟达不仅按照预料地发布了16nm FinFET制程超级核弹帕斯卡(Pascal)显卡,最让人惊叹的还是一款定位于深度学习的超级计算机DGX-1。



DGX-1拥有8颗帕斯卡架构GP100核心的Tesla P100 GPU,以及7TB的SSD,由两颗16核心的Xeon E5-2698v3以及512GB的DDR4内存驱动。售价为129000美元(835378.2元人民币),今年Q4面市。

关于Pascal的架构大家都知道了,虽然本次没有推出面向消费市场的GeForce显卡,而是专业计算卡Tesla P100,但是内部架构都是一脉相承。Tesla P100采用顶级大核心GP100,遗憾的是并非完整的架构。即只有3584个流处理器,而非完整的3840 CUDA。新架构16nm FinFET制程,核心面积达到了610平方毫米,由恐怖的150亿晶体管组成,第二代高带宽显存(HBM2)组成了16GB的显存,带宽达到了768GB/s。8张GPU一共组成了128GB的显存。浮点运算(FP16)达到了170TFlops(官方宣称相当于250个x86服务器),单精度为10.6TFlops双精度,双精度5.3TFlops。功耗3200W。





官方宣称DGX-1相当于250个x86服务器



以往25个小时才能消化的运算任务现在只需要2小时



DGX-1并不大,也许AlphaGO的下一代将大大缩小

近几年英伟达还是很有野心的,一直在试图扩张视觉计算市场,冲击其他领域。深度学习和汽车自动驾驶已经成为老黄的工作重心,也在不断的推出周边的设备和处理器。今天猛然一看发现嘉宾还有IBM Watson项目的CTO Rob High和丰田研究中心的CEO Gill Pratt。



http://www.cnbeta.com/articles/490089.htm


虽然本业是做 GPU,但 GPU 高度平行的运算特性很容易转移到特定的超级电脑应用上,因此不难发现 NVIDIA 近年来在超级电脑市场愈来愈活跃。今天发布的这台 DGX-1 是 NVIDIA 最新的尝试,CEO 黄仁勋称其 7TB SSD、双 Xeon 处理器及八颗 Tesla P100 GPU 的组合,总计拥有 170 TeraFLOPs 的运算力,相当于 250 台服务器装在一个小盒子里。

不意外地,第一批的客户以学术单位为主,包括 MIT、Stanford、NYU、Berkeley 等。现在许多学术单位在使用的超级电脑都是自制的,虽然说可以针对特定应用做定制化,但费时费力又费钱。NVIDIA 希望 DGX-1 能让学术单位更轻易部署强大的运算力,来解决过去无法解决的问题。此外,DGX-1 也是 NVIDIA 的「Drive PX」自驾车机器学习系统中重要的组成部份,可以以 180fps 连续对视野物体和车辆做扫瞄。

对于有能利运用这些电脑的单位来说,它 US$129,000(约 835,000 人民币)的造价大概不是什么大问题,而且随着 谷歌、微软等公司持续往人工智能的领域前进,也难怪 NVIDIA 这么看重这块市场的前景呢。

http://www.linuxidc.com/Linux/2016-04/129888.htm
感觉不是很贵啊,就看应用软件的支持程度了。
是单卡5.3T双精度么?
是单卡5.3T双精度么? 感觉很牛逼的样子。论刷浮点,GPU还是要比申威5众核和Intel的MIC牛逼啊


呵呵,100P的野望全靠它的后辈撑了
不牛一点怎么行

话说intel  的Knight Landing 据说发布时间又跳票到16年q3了
http://pics.computerbase.de/7/1/3/7/7/2-1080.2427182198.png

这一代计算节点果然不是那么好憋的






呵呵,100P的野望全靠它的后辈撑了
不牛一点怎么行

话说intel  的Knight Landing 据说发布时间又跳票到16年q3了
http://pics.computerbase.de/7/1/3/7/7/2-1080.2427182198.png

这一代计算节点果然不是那么好憋的




oldwatch 发表于 2016-4-7 06:57
呵呵,100P的野望全靠它的后辈撑了
不牛一点怎么行
2015年已经发布了么? KNL是第二代啊
oldwatch 发表于 2016-4-7 06:57
呵呵,100P的野望全靠它的后辈撑了
不牛一点怎么行
NV的这个帕斯卡的双精度能到到5.3T?这比intel的KNL先进多了;看来同构计算相对于异构计算还是有很大的劣势。
这不是完整的GP100,完整版(1.3GHz)有5.7T Flops的双精度浮点速度,功耗300W。随着工艺的成熟,以后超过6TFlops是早晚的事。
2015年已经发布了么? KNL是第二代啊
纸面发布,规格发布,sdk发布
如果那张PPT属实,硬件出货显然要延迟了

能源部还等着第三代knight hill 攒超算呢