IBM开发出“天网”雏形?

来源:百度文库 编辑:超级军网 时间:2024/04/29 01:10:58
http://tech.163.com/14/0808/18/A358470V00094ODU.html



“我手里拿着的这块芯片拥有100万个神经元、2.56亿个突触和4,096个内核。它拥有54亿个晶体管,是IBM打造过的最大芯片。”

达曼德拉·莫德哈(Dharmendra S. Modha)博士在和我通话时显得非常激动。这是我第三次和莫德哈博士谈到他的长期项目。IBM的这个项目旨在创造出全新的计算机芯片SyNAPSE,其架构受到了人脑的启发。这块新型芯片就是此项目的一大成功。

不过,“启发”是关键词。该芯片的架构模拟人脑的结构,但在很大程度上进行了简化。不过与如今的电脑相比,那种架构拥有某些惊人的优势。例如,尽管这是IBM打造过的最大芯片,但功率极低,约为63毫瓦,和笔记本电脑芯片功率相比微不足道。

而且,这种新型芯片具有可扩展性,可以将几块芯片连接起来,组成更大的神经网络。相关研究的详细内容已于8月7日发表在《科学》(Science)杂志上。

“2011年,我们有了单核的SyNAPSE芯片。”莫德哈对我说,“现在,我们将核数增加到4,096个,同时使每个内核的面积缩小为原来的15分之一,功率降到原来的百分之一。”

这种芯片的每个内核都模仿简化版的大脑神经结构,包含256个“神经元”(处理器)、256个“轴突”(内存)和6.4万个“突触”(负责神经元和轴突之间的通信)。这种架构完全不同于冯·诺依曼结构。现今几乎所有电脑(包括你用来读这篇文章的那台电脑)都采用了冯·诺依曼结构。



这个项目始于2008年,IBM为此与几所大学展开了多年的合作。美国国防部高等研究计划署(Defense Advanced Research Projects Agency,简称DARPA)向该项目提供了5,300万美元资金。首个原型芯片在2011年问世,编程语言和开发包于2013年发布。

“这种新型芯片将为那些钻研脉冲神经元算法的研究人员提供强大的工具。”泰伦斯·赛杰诺维斯基(Terrence J. Sejnowski)博士对我说。赛杰诺维斯基是索尔克研究所(Salk Institute)计算神经科学实验室的主管。他并未参与IBM的这个项目,但熟悉这项技术。“我们知道,这种算法模仿了大脑利用脉冲神经元的方式,胜过现有的所有算法,而功率仅为20瓦,比笔记本电脑还低。”

但值得指出的是,SynAPSE系统不会取代如今的电脑,而是作为补充。莫德哈把该系统比作协处理器,用于高性能计算机,帮助它们更快地处理数据。或者,他在和我交谈时用了一个更有诗意的词语来加以形容,他把SynAPSE系统称为“右脑”计算机,而当今电脑采用的是“左脑”架构。

“目前采用冯·诺依曼结构的计算机能够快速处理符号和数字。”他说,“SynAPSE芯片速度慢,但拥有多种感知能力,更善于识别实时传感器数据。”

所以,在处理庞大的数据和进行繁重的计算任务时,我们仍将需要传统计算机,而那些“认知”计算机则负责分析和识别那些数据中的模式。重要的应用包括模式的视觉识别,莫德哈博士认为这在无人驾驶汽车等领域里会非常有用。

赛杰诺维斯基对我说:“今后的方向是研制出能够解决感知和移动识别问题的低功率计算机。人类在解决这些问题时做得很好,而数字计算机做得很差。”

这就是IBM希望用SynAPSE芯片做到的事情——识别普通计算机无法识别的模式。莫德哈说:“谷歌地图能够为你设计路线,但SynAPSE芯片能看到路面是否有坑洼。”

SynAPSE芯片之所以在模式识别方面拥有优势,是因为其模仿人脑的架构拥有更加强大的并行处理能力,这点不同于按顺序处理数据的传统计算机。例如,在面部识别应用程序中,该芯片的一个内核负责识别鼻子的形状,另一个内核负责发质和发色,还有一个内核负责眼睛的颜色,以此类推。每个内核都比传统处理器更慢,但由于它们可以并行工作,因此从总体上来说,该芯片能够更快、更准确地完成这类操作。

这种芯片的其他潜在应用包括用于相机来自动识别杂乱环境中令人感兴趣的物体。莫德哈的团队还认为,该芯片在自然语言处理方面也非常有用,能够从语法上分析并执行人的指令,就像《星际迷航》(Star Trek)里那些知道人们何时在发布指令、何时在彼此交谈的电脑。http://tech.163.com/14/0808/18/A358470V00094ODU.html



“我手里拿着的这块芯片拥有100万个神经元、2.56亿个突触和4,096个内核。它拥有54亿个晶体管,是IBM打造过的最大芯片。”

达曼德拉·莫德哈(Dharmendra S. Modha)博士在和我通话时显得非常激动。这是我第三次和莫德哈博士谈到他的长期项目。IBM的这个项目旨在创造出全新的计算机芯片SyNAPSE,其架构受到了人脑的启发。这块新型芯片就是此项目的一大成功。

不过,“启发”是关键词。该芯片的架构模拟人脑的结构,但在很大程度上进行了简化。不过与如今的电脑相比,那种架构拥有某些惊人的优势。例如,尽管这是IBM打造过的最大芯片,但功率极低,约为63毫瓦,和笔记本电脑芯片功率相比微不足道。

而且,这种新型芯片具有可扩展性,可以将几块芯片连接起来,组成更大的神经网络。相关研究的详细内容已于8月7日发表在《科学》(Science)杂志上。

“2011年,我们有了单核的SyNAPSE芯片。”莫德哈对我说,“现在,我们将核数增加到4,096个,同时使每个内核的面积缩小为原来的15分之一,功率降到原来的百分之一。”

这种芯片的每个内核都模仿简化版的大脑神经结构,包含256个“神经元”(处理器)、256个“轴突”(内存)和6.4万个“突触”(负责神经元和轴突之间的通信)。这种架构完全不同于冯·诺依曼结构。现今几乎所有电脑(包括你用来读这篇文章的那台电脑)都采用了冯·诺依曼结构。



这个项目始于2008年,IBM为此与几所大学展开了多年的合作。美国国防部高等研究计划署(Defense Advanced Research Projects Agency,简称DARPA)向该项目提供了5,300万美元资金。首个原型芯片在2011年问世,编程语言和开发包于2013年发布。

“这种新型芯片将为那些钻研脉冲神经元算法的研究人员提供强大的工具。”泰伦斯·赛杰诺维斯基(Terrence J. Sejnowski)博士对我说。赛杰诺维斯基是索尔克研究所(Salk Institute)计算神经科学实验室的主管。他并未参与IBM的这个项目,但熟悉这项技术。“我们知道,这种算法模仿了大脑利用脉冲神经元的方式,胜过现有的所有算法,而功率仅为20瓦,比笔记本电脑还低。”

但值得指出的是,SynAPSE系统不会取代如今的电脑,而是作为补充。莫德哈把该系统比作协处理器,用于高性能计算机,帮助它们更快地处理数据。或者,他在和我交谈时用了一个更有诗意的词语来加以形容,他把SynAPSE系统称为“右脑”计算机,而当今电脑采用的是“左脑”架构。

“目前采用冯·诺依曼结构的计算机能够快速处理符号和数字。”他说,“SynAPSE芯片速度慢,但拥有多种感知能力,更善于识别实时传感器数据。”

所以,在处理庞大的数据和进行繁重的计算任务时,我们仍将需要传统计算机,而那些“认知”计算机则负责分析和识别那些数据中的模式。重要的应用包括模式的视觉识别,莫德哈博士认为这在无人驾驶汽车等领域里会非常有用。

赛杰诺维斯基对我说:“今后的方向是研制出能够解决感知和移动识别问题的低功率计算机。人类在解决这些问题时做得很好,而数字计算机做得很差。”

这就是IBM希望用SynAPSE芯片做到的事情——识别普通计算机无法识别的模式。莫德哈说:“谷歌地图能够为你设计路线,但SynAPSE芯片能看到路面是否有坑洼。”

SynAPSE芯片之所以在模式识别方面拥有优势,是因为其模仿人脑的架构拥有更加强大的并行处理能力,这点不同于按顺序处理数据的传统计算机。例如,在面部识别应用程序中,该芯片的一个内核负责识别鼻子的形状,另一个内核负责发质和发色,还有一个内核负责眼睛的颜色,以此类推。每个内核都比传统处理器更慢,但由于它们可以并行工作,因此从总体上来说,该芯片能够更快、更准确地完成这类操作。

这种芯片的其他潜在应用包括用于相机来自动识别杂乱环境中令人感兴趣的物体。莫德哈的团队还认为,该芯片在自然语言处理方面也非常有用,能够从语法上分析并执行人的指令,就像《星际迷航》(Star Trek)里那些知道人们何时在发布指令、何时在彼此交谈的电脑。
IBM SyNAPSE芯片可模拟大脑 将颠覆传统计算领域

三年后,IBM再度发布能模拟人类大脑的SyNAPSE(Systems of Neuromorphic Adaptive Plastic Scalable Electronics,即“自适应塑料可伸缩电子神经形态系统”)芯片。相比前一代原型,新的芯片已达到量产要求,并且拥有100万个“神经元”内核、 2.56亿个“突触”内核以及4096个“神经突触”内核,而功率则仅有70毫瓦。

首款能模拟人类大脑的SyNAPSE芯片于三年前问世,但当时仅为一个单核心的原型。三年来,IBM对SyNAPSE进行了重大升级,芯片核心数量如今达到了惊人的100万个“神经元”内核、2.56亿个“突触”内核以及4096个“神经突触”内核,而这一切只建立在70毫瓦的功率之上。
“70毫瓦的功率”用IBM首席科学家Dharmendra S. Modha博士的话说,仅相当于用电池驱动的助听器的正常功耗。然而事实上,SyNAPSE所实现的壮举并不只停留在这些惊人的数字上,其对传统计算方式可能造成的冲击或将是巨大的。

http://www.cnbeta.com/articles/317275.htm
模拟君好!模拟君再见!
一天到晚吹!烦不烦
模拟桑不可战胜
大脑计算能力很强吗?那也要看是谁的吧,如果是模拟桑的,个人表示担忧。
这个人真的很贱!
你网上模拟一下也就罢了,还真的挖这些个骗预算的大力丸叼文章骗点击,真是全家麻辣隔壁的贱!
大阿文 发表于 2014-8-9 12:04
你网上模拟一下也就罢了,还真的挖这些个骗预算的大力丸叼文章骗点击,真是全家麻辣隔壁的贱!
一百个支持,楼主真贱
捞分贴,大家使劲捞
模拟桑又来发福利了
天网有了,T800神马时候登场?
烦不烦,这是ibm要甩包袱的节奏,为啥!你懂的,如天文数字般的投资你玩的起嘛!
100万神经元与860亿对比,你会想到啥,三叶虫?不,连三叶虫都追不上。
cder9527 发表于 2014-8-9 11:54
大脑计算能力很强吗?那也要看是谁的吧,如果是模拟桑的,个人表示担忧。
何止强大,智能与智慧的区别
模拟桑的帖子是一定要顶的。。。。



不能枉费模拟桑的一片苦心。。。。
好吧,如果我理解的不错的话,这块芯片的意义如下:
1. 它的速度很慢,可能真的非常的慢;
2. 但它有很多个核,比方说几千个;
3. 每个核可以用来制作一件事情,比方说识别脸型,识别语言,识别动作,等等。
请问,这个做法,是不是又把计算机带回到并行处理的时代了?(我虽然是学计算机的,但我可能也会理解错误)
人工智能?审判日快要来了!
圣马丁骑士 发表于 2014-8-9 12:24
好吧,如果我理解的不错的话,这块芯片的意义如下:
1. 它的速度很慢,可能真的非常的慢;
2. 但它有很多 ...
http://tech.sina.com.cn/it/2014-08-08/08139542643.shtml
模拟城市 发表于 2014-8-9 12:31
http://tech.sina.com.cn/it/2014-08-08/08139542643.shtml
你是不是想告诉我这篇文章在新浪的一些奇葩的回复?
确实有进步,同步神经元信号计算,那计算量无法想象。
纯好奇,楼主是中国人还是美国人,如果是中国人是不是接受过西方教育?什么原因促使你这么不遗余力地宣传美国?
纠结在捞与不捞之间
没办法了
模拟桑加油!模拟桑加油!
cleverblue 发表于 2014-8-9 12:38
确实有进步,同步神经元信号计算,那计算量无法想象。
具体应用呢?能用在哪里?需要全方位信息感知的民用情景是啥?你能不能简单举个例子?
这就是IBM鼓吹的智慧城市物联网的一部分 我很喜欢 但是也不看好 有天生缺陷
不安全
看得多了越发觉得模拟桑其实是美利坚高级黑的死忠粉  其执着度和当年wow的三季稻有的一比
看到投入了5300万美金,模拟桑还不明白这就是一个钓鱼工程么?
真要有前景早就成亿美金往里头砸了,O(∩_∩)O~
好奇害死人啊。请问LZ是第一代产品吗?
依然心晴 发表于 2014-8-9 13:00
具体应用呢?能用在哪里?需要全方位信息感知的民用情景是啥?你能不能简单举个例子?
这就是IBM鼓吹的 ...
他这个说是用在智慧城市,这只不过是他的一个应用,大的用处就是模拟人工脑,就是使计算机像人一样的思维,帮人做事,就是最理想的人工智能。但真正实现还有很长的路要走。硬件(芯片)模拟是一个方向,也可以用软件模拟,他们各有自己的缺点。
  硬件模拟就是速度快,同步运行并计算,但各个神经元之间的连接是固定的,不像动物间的脑神经可以随时改变连接。这样就无法做到思想突变或者功能的改变。
软件计算速度慢,但可以改变连接,实现也容易,可以根据动物的原理动态生长神经元,达到实现功能的目的。
捞吧捞吧,不管了