还记得那个名字土的掉渣的神经网络芯片吗?最新消息

来源:百度文库 编辑:超级军网 时间:2024/05/01 08:13:04
作者:metaseq
链接:https://www.zhihu.com/question/41469046/answer/91739943
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

3月23日听了陈老师的报告,感觉受益良多。

陈老师课题组做的工作应该算是很开创性的工作了。以往我们总是说国内的科研人员做课题喜欢跟热点凑热闹,现在看来全球的研究人员其实也都是这样——陈老师的工作发表以后,去年一年国际上就有几十篇paper跟住了他们,针对他们的工作做了一些改进。

陈老师首先介绍了为什么要有神经网络处理器:
CPU/GPU用于智能信息的处理时,效率十分低下,谷歌大脑项目用了1.6万个CPU核跑了7天才完成猫脸识别。为了追求更高的识别能力,神经网络的规模正在快速增长。目前阻碍Deep Learning发展的很大的一个瓶颈就是速度了。他认为要克服这个瓶颈,神经网络处理器是迄今为止最好解决方案。

而且回顾计算的历史,我们会发现一个从通用计算走向专用计算的一个细分趋势:
图形处理-> GPU
信号处理-> DSP
认知处理-> 神经网络处理器

其实我本来是挺想把神经网络处理器叫NNP(Neural Network Processor)的,但陈老师他们把它起了名字叫DianNao(电脑)。这里面还有一段渊源:
本来陈老师课题组想给这个芯片起个electric brain之类的名字的,后来与陈老师课题组合作的一位法国学者建议他们给成果起个中文名字,这样对于法国方面来说是外文,显得比较“洋气”。

要说效能的话,我们可以摆一点数据:1GHz, 0.485W@65nm, 通用CPU 1/10的面积,100的性能。但是我觉得这个数据放在这里并没有太大的意义。首先,DianNao系列处理器现在并没有完全进入商业生产阶段,芯片制程方面的优化应该还有很大的余地。其次,他是神经网络处理器,算的东西跟通用CPU不一样。发明有先后,术业有专攻,你让GPU跟CPU去比浮点计算能力意义也不大。
如果硬要比的话,从陈老师课题组2012年的成果来看,在计算DNN,CNN,MLP,SOM等人工神经网络算法时,他们可以用CPU(Xeon E5-4620)和GPU(K20M)十分之一的面积,分别达到CPU-117倍,GPU-1.1倍的性能。
不从上面数据的角度看,我认为利用DianNao来做神经网络的运算,主要的优点有两个:
1、由于硬件的支持,效率的提升是成数量级的。
2、DianNao支持任意规模的神经网络!
这里任意规模神经网络很值得我们关注一下,这也是他们的处理器技术关键点所在。传统的神经网络芯片的做法是把硬件运算单元和算法神经元一一对应起来,这样一来只能对一个固定的神经网络进行计算。他们采用了对小尺度神经网络分时复用的方法来支持任意规模的神经网络,这个做法很厉害,极大地提高了芯片对于不同算法的能力。
从08年到16年的这八年里,陈老师课题组针对神经网络处理器做了一系列的出色研究:
12年国际首个神经网络硬件测试集
13年国际首个深度学习处理器
DianNao(电脑):ASPLOS'14最佳论文 亚洲首获计算机硬件A类会议最佳论文
14年国际首个深度学习多核处理器
DaDianNao(大电脑):MICRO'14最佳论文
15年国际首个通用机器学习处理器
PuDianNao(普电脑):ASPLOS'15
15年摄像头上的智能识别IP
ShiDianNao(视电脑) ISCA'15
16年国际首个神经网络通用指令集
DianNaoYu(电脑语)ISCA2016接收,分数第一
小预告:
TingDianNao(听电脑)也快出来啦

针对这个芯片,陈老师课题组还成立了公司,申请了一系列专利保护,目前也在和华为三星等一系列企业洽谈合作。相信不久将来我们就可以在移动设备上看见DianNao的应用了。

https://www.zhihu.com/question/3 ... mp;utm_medium=email
作者:metaseq
链接:https://www.zhihu.com/question/41469046/answer/91739943
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

3月23日听了陈老师的报告,感觉受益良多。

陈老师课题组做的工作应该算是很开创性的工作了。以往我们总是说国内的科研人员做课题喜欢跟热点凑热闹,现在看来全球的研究人员其实也都是这样——陈老师的工作发表以后,去年一年国际上就有几十篇paper跟住了他们,针对他们的工作做了一些改进。

陈老师首先介绍了为什么要有神经网络处理器:
CPU/GPU用于智能信息的处理时,效率十分低下,谷歌大脑项目用了1.6万个CPU核跑了7天才完成猫脸识别。为了追求更高的识别能力,神经网络的规模正在快速增长。目前阻碍Deep Learning发展的很大的一个瓶颈就是速度了。他认为要克服这个瓶颈,神经网络处理器是迄今为止最好解决方案。

而且回顾计算的历史,我们会发现一个从通用计算走向专用计算的一个细分趋势:
图形处理-> GPU
信号处理-> DSP
认知处理-> 神经网络处理器

其实我本来是挺想把神经网络处理器叫NNP(Neural Network Processor)的,但陈老师他们把它起了名字叫DianNao(电脑)。这里面还有一段渊源:
本来陈老师课题组想给这个芯片起个electric brain之类的名字的,后来与陈老师课题组合作的一位法国学者建议他们给成果起个中文名字,这样对于法国方面来说是外文,显得比较“洋气”。

要说效能的话,我们可以摆一点数据:1GHz, 0.485W@65nm, 通用CPU 1/10的面积,100的性能。但是我觉得这个数据放在这里并没有太大的意义。首先,DianNao系列处理器现在并没有完全进入商业生产阶段,芯片制程方面的优化应该还有很大的余地。其次,他是神经网络处理器,算的东西跟通用CPU不一样。发明有先后,术业有专攻,你让GPU跟CPU去比浮点计算能力意义也不大。
如果硬要比的话,从陈老师课题组2012年的成果来看,在计算DNN,CNN,MLP,SOM等人工神经网络算法时,他们可以用CPU(Xeon E5-4620)和GPU(K20M)十分之一的面积,分别达到CPU-117倍,GPU-1.1倍的性能。
不从上面数据的角度看,我认为利用DianNao来做神经网络的运算,主要的优点有两个:
1、由于硬件的支持,效率的提升是成数量级的。
2、DianNao支持任意规模的神经网络!
这里任意规模神经网络很值得我们关注一下,这也是他们的处理器技术关键点所在。传统的神经网络芯片的做法是把硬件运算单元和算法神经元一一对应起来,这样一来只能对一个固定的神经网络进行计算。他们采用了对小尺度神经网络分时复用的方法来支持任意规模的神经网络,这个做法很厉害,极大地提高了芯片对于不同算法的能力。
从08年到16年的这八年里,陈老师课题组针对神经网络处理器做了一系列的出色研究:
12年国际首个神经网络硬件测试集
13年国际首个深度学习处理器
DianNao(电脑):ASPLOS'14最佳论文 亚洲首获计算机硬件A类会议最佳论文
14年国际首个深度学习多核处理器
DaDianNao(大电脑):MICRO'14最佳论文
15年国际首个通用机器学习处理器
PuDianNao(普电脑):ASPLOS'15
15年摄像头上的智能识别IP
ShiDianNao(视电脑) ISCA'15
16年国际首个神经网络通用指令集
DianNaoYu(电脑语)ISCA2016接收,分数第一
小预告:
TingDianNao(听电脑)也快出来啦

针对这个芯片,陈老师课题组还成立了公司,申请了一系列专利保护,目前也在和华为三星等一系列企业洽谈合作。相信不久将来我们就可以在移动设备上看见DianNao的应用了。

https://www.zhihu.com/question/3 ... mp;utm_medium=email
不少外国佬还有把中文菜名纹在身上的,
文字方面的“崇洋媚外”也是挺好玩的……
华为又走在国内其他同行前面了
什么是认知处理?指的是狗狗识图那样的应用吗?
        实际上,我认为神经网络芯片,在移动端最大的应用,应该是将risc精简指令,集合成复杂指令cisc。

       拿一个大家最容易理解的例子来说,跑分,跑分程序大部分的设计思路,都是设计一套复杂算法,尽可能测算出手机的极限性能,然后给个分数。

        神经网络芯片,就可以对这些跑分算法,进行训练(由公司用集群训练了),得到了尽快完成这些跑分的参数,然后推送给手机用户,用户一更新,靠,几十上百万分,牛到不行。

        上面只是举例了,但放到游戏之类的具体应用上同样适用。
我其实一直关心,有没有电脑版的卖?中科院开个网店,结果这些东西根本没有
科技兔们,奔跑吧 !!!  
门外汉,献一下丑。
这是不是终结者里“天网”的萌芽和基础,自行学习的智能系统?
任何针对特定算法的asic,性能上百倍的提升这不是理所当然的吗?这年头连专用挖矿机都出来了,专用dnn芯片也是顺理成章。但这不是原理性的突破,IBM的类脑芯片和自组织编译器还有hp的忆阻器芯片才是真正的原理突破
要编造不?和现在的程式是不是大不一样?
大概明白了,就是用于运行神经网络算法的处理器。