Intel摩拳擦掌抢攻人工智能市场商机

来源:百度文库 编辑:超级军网 时间:2024/04/27 13:28:20
OFweek电子工程网讯:Intel收购Nervana的目标在于取得其预计2017年问世的深度学习加速器晶片,如果该晶片的性能表现如预期,Intel的深度学习加速器硬体开发板可望…
  处理器大厂英特尔(Intel)将于下周于美国旧金山举行的Intel Developer Forum (IDF)年度开发者论坛,进一步阐述该公司收购深度学习(deep learning)技术供应商Nervana Systems的意图──此举被视为Intel与深度学习人工智慧(AI)应用绘图处理器(GPU)竞争的重要策略。
  Intel在高性能运算(high-performance computing,HPC)市场居主导地位,Nvidia则以其复杂GPU在深度学习领域有大幅进展;而Nervana Systems的GPU则是以相容于Nvidia的Cuda软体与自家Neon云端服务在市场获得关注。
  Intel收购Nervana的目标在于取得其预计2017年问世的深度学习加速器晶片,如果该晶片的性能表现如预期,Intel的深度学习加速器硬体开发板可望超越Nvidia的GPU开发板,同时收购自Nervana的Neon云端服务之性能表现也将超越Nvidia的Cuda软体。
  “这并Intel给Nvidia的一记重击,”市场研究机构Moor Insights & Strategy的深度学习暨高性能运算资深分析师Karl Freund接受EE Times访问时表示:“但这是进军一个成长非常快速的市场之合理策略。”
  Freund进一步解释:“GPU是训练深度学习神经网路的一个热门方法,Nvidia在该领域是领导厂商;Intel则有自己的多核心Xeon/ Xeon Phi处理器,以及收购自Altera的FPGA,却没有GPU。收购Nervana是以一个非复制通用GPU策略进军深度学习市场的方法,也就是透过提供为神经网路量身打造的特制处理器。”
  Nervana运算速度号称可达每秒8 terabit的Engine晶片,是一款以矽中介层(silicon-interposer)为基础的多晶片模组,配备terabyte等级的3D记忆体,环绕着3D花托状架构(torus fabric)、采用低精度浮点运算单元(FPU)的连结神经元;因此Freund指出,该晶片与竞争通用GPU相较,能以更小的尺寸支援每秒更多次数的深度学习运算。

  Nervana 的Engine晶片架构
  Freund表示:“深度学习神经网路能摆脱通用GPU在理论上过度夸大的较低精度运算;虽然Nervana的晶片要到明年才问世、因此目前并没有公布任何性能量测基准资料,但为深度学习神经网路量身打造的特殊应用晶片,性能应该会超越在通用GPU的相同演算法。”
  Intel声称,目前全世界有97%支援机器学习的伺服器都是采用Xeon/Xeon Phi晶片,但这些伺服器占据全球伺服器的比例不到10%;不过Intel也表示,机器学习是成长速度最快的AI应用,因此该公司准备好以Nervana的Engine晶片为基础的深度学习神经网路,找回因GPU竞争而流失的市占率。
  针对Nervana的收购,Intel执行副总裁暨资料中心事业群总经理Diane Bryant在一篇部落格文章中表示:“人工智慧正在转变商业运作以及人们参与世界的模式,而它的子集──深度学习,是扩展AI领域的关键方法。”
  据了解,Intel将把Nervana的演算法纳入Math Kernel Library,以与其产业标准架构整合;此外收购Nervana将让Intel取得Neon云端服务,因此为旗下的云端服务增加支援Nvidia深度学习技术的产品。
  Freund表示,Nvidia若要维持竞争力,可能也需要以低精度特制深度学习处理器来回应Intel+Nervana。目前Nervana的团队有48位工程师与管理阶层,将归入Bryant负责的Intel资料中心事业群(Data Center Group)。

http://ee.ofweek.com/2016-08/ART-8130-2801-30023972.htmlOFweek电子工程网讯:Intel收购Nervana的目标在于取得其预计2017年问世的深度学习加速器晶片,如果该晶片的性能表现如预期,Intel的深度学习加速器硬体开发板可望…
  处理器大厂英特尔(Intel)将于下周于美国旧金山举行的Intel Developer Forum (IDF)年度开发者论坛,进一步阐述该公司收购深度学习(deep learning)技术供应商Nervana Systems的意图──此举被视为Intel与深度学习人工智慧(AI)应用绘图处理器(GPU)竞争的重要策略。
  Intel在高性能运算(high-performance computing,HPC)市场居主导地位,Nvidia则以其复杂GPU在深度学习领域有大幅进展;而Nervana Systems的GPU则是以相容于Nvidia的Cuda软体与自家Neon云端服务在市场获得关注。
  Intel收购Nervana的目标在于取得其预计2017年问世的深度学习加速器晶片,如果该晶片的性能表现如预期,Intel的深度学习加速器硬体开发板可望超越Nvidia的GPU开发板,同时收购自Nervana的Neon云端服务之性能表现也将超越Nvidia的Cuda软体。
  “这并Intel给Nvidia的一记重击,”市场研究机构Moor Insights & Strategy的深度学习暨高性能运算资深分析师Karl Freund接受EE Times访问时表示:“但这是进军一个成长非常快速的市场之合理策略。”
  Freund进一步解释:“GPU是训练深度学习神经网路的一个热门方法,Nvidia在该领域是领导厂商;Intel则有自己的多核心Xeon/ Xeon Phi处理器,以及收购自Altera的FPGA,却没有GPU。收购Nervana是以一个非复制通用GPU策略进军深度学习市场的方法,也就是透过提供为神经网路量身打造的特制处理器。”
  Nervana运算速度号称可达每秒8 terabit的Engine晶片,是一款以矽中介层(silicon-interposer)为基础的多晶片模组,配备terabyte等级的3D记忆体,环绕着3D花托状架构(torus fabric)、采用低精度浮点运算单元(FPU)的连结神经元;因此Freund指出,该晶片与竞争通用GPU相较,能以更小的尺寸支援每秒更多次数的深度学习运算。

4 (1).jpg (27.04 KB, 下载次数: 0)

下载附件 保存到相册

2016-8-15 12:18 上传


  Nervana 的Engine晶片架构
  Freund表示:“深度学习神经网路能摆脱通用GPU在理论上过度夸大的较低精度运算;虽然Nervana的晶片要到明年才问世、因此目前并没有公布任何性能量测基准资料,但为深度学习神经网路量身打造的特殊应用晶片,性能应该会超越在通用GPU的相同演算法。”
  Intel声称,目前全世界有97%支援机器学习的伺服器都是采用Xeon/Xeon Phi晶片,但这些伺服器占据全球伺服器的比例不到10%;不过Intel也表示,机器学习是成长速度最快的AI应用,因此该公司准备好以Nervana的Engine晶片为基础的深度学习神经网路,找回因GPU竞争而流失的市占率。
  针对Nervana的收购,Intel执行副总裁暨资料中心事业群总经理Diane Bryant在一篇部落格文章中表示:“人工智慧正在转变商业运作以及人们参与世界的模式,而它的子集──深度学习,是扩展AI领域的关键方法。”
  据了解,Intel将把Nervana的演算法纳入Math Kernel Library,以与其产业标准架构整合;此外收购Nervana将让Intel取得Neon云端服务,因此为旗下的云端服务增加支援Nvidia深度学习技术的产品。
  Freund表示,Nvidia若要维持竞争力,可能也需要以低精度特制深度学习处理器来回应Intel+Nervana。目前Nervana的团队有48位工程师与管理阶层,将归入Bryant负责的Intel资料中心事业群(Data Center Group)。

http://ee.ofweek.com/2016-08/ART-8130-2801-30023972.html