人工智能挑战围棋啦!

来源:百度文库 编辑:超级军网 时间:2024/04/24 13:51:48
原帖:
http://tech.sina.com.cn/it/2016-01-28/doc-ifxnzanh0174158.shtml

谷歌人工智能破解围棋比赛:首次完胜欧洲冠军

 新浪科技讯 1月28日上午消息,谷歌今日宣布在人工智能领域的重要进展:开发出一款能够在围棋中击败职业选手的程序——AlphaGo,该程序能够通过机器学习的方式掌握比赛技巧。

  人工智能挑战围棋有多难?

  计算机和人类竞赛在棋类比赛中已不罕见,在三子棋、跳棋和国际象棋等棋类上,计算机都先后完成了对人类的挑战。但对拥有2500多年历史的围棋而言,计算机在此之前从未战胜过人类。围棋看起来棋盘简单、规则不难,纵横各19九条等距离、垂直交叉的平行线,共构成19×19(361)个交叉点。比赛双方交替落子,目的是在棋盘上占据尽可能大的空间。

  在极简主义的游戏表象之下,围棋具有令人难以置信的深度和微妙之处。当棋盘为空时,先手拥有361个可选方案。在游戏进行当中,它拥有远比国际象棋更多的选择空间,这也是为什么人工智能、机器学习的研发者们始终希望在此取得突破的原因。

  就机器学习的角度而言,围棋的计算最大有3361种局面,大致的体量是10170,而已经观测到的宇宙中,原子的数量才1080。国际象棋最大只有2155种局面,称为香农数,大致是1047。

  “机器学习”预测人类行为

  传统的人工智能方法是将所有可能的走法构建成一棵搜索树 ,但这种方法对围棋并不适用。此次谷歌推出的AlphaGo,将高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。

  其中一个神经网络“决策网络”(policy network)负责选择下一步走法,另一个神经网络“值网络”(“value network)则预测比赛胜利方。谷歌方面用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习(reinforcement learning)。通过广泛使用Google云平台,完成了大量研究工作。

AlphaGo所使用的神经网络结构示意图AlphaGo所使用的神经网络结构示意图
  征服围棋对于谷歌来说有重要意义。AlphaGo不仅是遵循人工规则的“专家”系统,它还通过“机器学习”自行掌握如何赢得围棋比赛。谷歌方面希望运用这些技术解决现实社会最严峻、最紧迫的问题——从气候建模到复杂的灾难分析。

  在具体的机器训练上,决策网络的方式是输入人类围棋专家的比赛,到系统可以预测57%人类行动为止,此前最好成绩是44%。此后AlphaGo通过在神经网络内部进行比赛的方式(可以简单理解成和自己下棋),开始学习自主探索新的围棋策略。目前AlphaGo的决策网络可以击败大多数具有庞大搜寻树的最先进的围棋程序。

  值网络也是通过自己和自己下棋的方式来训练。目前值网络可以评估每一步棋能够有多大胜算。这在此前被认为是不可能的。

  AlphaGo战绩惊人

  实际上,目前AlphaGo已经成为最优秀的人工智能围棋程序。在与其他程序的对弈中,AlphaGo用一台机器就取得了500场的胜利,甚至有过让对手4手后获胜的纪录。去年10月5日-10月9日,谷歌安排AlphaGo与欧洲围棋冠军Fan Hui(樊麾:法国国家围棋队总教练)闭门比赛,谷歌以5-0取胜。

AlphaGo与欧洲围棋冠军樊麾的5局较量AlphaGo与欧洲围棋冠军樊麾的5局较量
  公开的比赛将在今年三月举行,AlphaGo将在韩国首尔与韩国围棋选手李世石九段一决高下,李世石是近10年来获得世界第一头衔最多的棋手,谷歌为此提供了100万美元作为奖金。李世石表示很期待此次对决,并且有信心获得胜利。

  此外,AlphaGo的发布,也是Deep MInd在2014年1月被谷歌收购以来首次发声。在被收购之前,这家位于伦敦的人工智能领域的公司还获得了特斯拉和SpaceX创始人马斯克的投资。

  人机对弈谁将胜?

  值得一提的是,上一次著名的人机对弈要追溯到1997年。当时IBM公司研发的超级计算机“深蓝”战胜了国际象棋冠军卡斯巴罗夫。不过国际象棋的算法要比围棋简单得多。国际象棋中取胜只需“杀死”国王,而围棋中则用数子或比目的方法计算胜负,并不是简单地杀死对方棋子。此前,“深蓝”计算机的设计人2007年发表文章指出,他相信十年内能有超级电脑在围棋上战胜人类。

  该项目并未给IBM带来可以销售的产品,但却让我们意识到:基础科学研究所面临的巨大挑战是值得我们去迎接的,虽然企业在这方面的收益还无法量化。

  随着顶级科技公司争相在产品中融入智能技术,谷歌并不是唯一一家研究围棋AI的公司,Facebook对围棋人工智能的研究整合此前也亮相最新的计算技术:深卷积神经网络(deep convolutional neural networks)和蒙特卡洛树搜索(Monte Carlo tree search),前者利用类似于大脑的算法来学习和识别棋盘上各种模式的重要性,而后者相当于一种超前思维,用于计算详细的战略步骤。

    Facebook和谷歌在围棋人工智能方面的研究具有极大的代表意义。与国际象棋相比,围棋更具深度。要让计算机掌握相关技巧,需要更多类似于人类的模式识别和直觉判断技巧,计算机象棋软件越来越优秀,已将揭开了这项游戏的神秘面纱;相比之下,围棋目前更加神秘。但将来,围棋的神秘色彩也可能不复存在。

贴两张图,一张是: AlphaGo所使用的神经网络结构示意图;一张是:AlphaGo与欧洲围棋冠军樊麾的5局较量原帖:
http://tech.sina.com.cn/it/2016-01-28/doc-ifxnzanh0174158.shtml

谷歌人工智能破解围棋比赛:首次完胜欧洲冠军

 新浪科技讯 1月28日上午消息,谷歌今日宣布在人工智能领域的重要进展:开发出一款能够在围棋中击败职业选手的程序——AlphaGo,该程序能够通过机器学习的方式掌握比赛技巧。

  人工智能挑战围棋有多难?

  计算机和人类竞赛在棋类比赛中已不罕见,在三子棋、跳棋和国际象棋等棋类上,计算机都先后完成了对人类的挑战。但对拥有2500多年历史的围棋而言,计算机在此之前从未战胜过人类。围棋看起来棋盘简单、规则不难,纵横各19九条等距离、垂直交叉的平行线,共构成19×19(361)个交叉点。比赛双方交替落子,目的是在棋盘上占据尽可能大的空间。

  在极简主义的游戏表象之下,围棋具有令人难以置信的深度和微妙之处。当棋盘为空时,先手拥有361个可选方案。在游戏进行当中,它拥有远比国际象棋更多的选择空间,这也是为什么人工智能、机器学习的研发者们始终希望在此取得突破的原因。

  就机器学习的角度而言,围棋的计算最大有3361种局面,大致的体量是10170,而已经观测到的宇宙中,原子的数量才1080。国际象棋最大只有2155种局面,称为香农数,大致是1047。

  “机器学习”预测人类行为

  传统的人工智能方法是将所有可能的走法构建成一棵搜索树 ,但这种方法对围棋并不适用。此次谷歌推出的AlphaGo,将高级搜索树与深度神经网络结合在一起。这些神经网络通过12个处理层传递对棋盘的描述,处理层则包含数百万个类似于神经的连接点。

  其中一个神经网络“决策网络”(policy network)负责选择下一步走法,另一个神经网络“值网络”(“value network)则预测比赛胜利方。谷歌方面用人类围棋高手的三千万步围棋走法训练神经网络,与此同时,AlphaGo也自行研究新战略,在它的神经网络之间运行了数千局围棋,利用反复试验调整连接点,这个流程也称为巩固学习(reinforcement learning)。通过广泛使用Google云平台,完成了大量研究工作。

AlphaGo所使用的神经网络结构示意图AlphaGo所使用的神经网络结构示意图
  征服围棋对于谷歌来说有重要意义。AlphaGo不仅是遵循人工规则的“专家”系统,它还通过“机器学习”自行掌握如何赢得围棋比赛。谷歌方面希望运用这些技术解决现实社会最严峻、最紧迫的问题——从气候建模到复杂的灾难分析。

  在具体的机器训练上,决策网络的方式是输入人类围棋专家的比赛,到系统可以预测57%人类行动为止,此前最好成绩是44%。此后AlphaGo通过在神经网络内部进行比赛的方式(可以简单理解成和自己下棋),开始学习自主探索新的围棋策略。目前AlphaGo的决策网络可以击败大多数具有庞大搜寻树的最先进的围棋程序。

  值网络也是通过自己和自己下棋的方式来训练。目前值网络可以评估每一步棋能够有多大胜算。这在此前被认为是不可能的。

  AlphaGo战绩惊人

  实际上,目前AlphaGo已经成为最优秀的人工智能围棋程序。在与其他程序的对弈中,AlphaGo用一台机器就取得了500场的胜利,甚至有过让对手4手后获胜的纪录。去年10月5日-10月9日,谷歌安排AlphaGo与欧洲围棋冠军Fan Hui(樊麾:法国国家围棋队总教练)闭门比赛,谷歌以5-0取胜。

AlphaGo与欧洲围棋冠军樊麾的5局较量AlphaGo与欧洲围棋冠军樊麾的5局较量
  公开的比赛将在今年三月举行,AlphaGo将在韩国首尔与韩国围棋选手李世石九段一决高下,李世石是近10年来获得世界第一头衔最多的棋手,谷歌为此提供了100万美元作为奖金。李世石表示很期待此次对决,并且有信心获得胜利。

  此外,AlphaGo的发布,也是Deep MInd在2014年1月被谷歌收购以来首次发声。在被收购之前,这家位于伦敦的人工智能领域的公司还获得了特斯拉和SpaceX创始人马斯克的投资。

  人机对弈谁将胜?

  值得一提的是,上一次著名的人机对弈要追溯到1997年。当时IBM公司研发的超级计算机“深蓝”战胜了国际象棋冠军卡斯巴罗夫。不过国际象棋的算法要比围棋简单得多。国际象棋中取胜只需“杀死”国王,而围棋中则用数子或比目的方法计算胜负,并不是简单地杀死对方棋子。此前,“深蓝”计算机的设计人2007年发表文章指出,他相信十年内能有超级电脑在围棋上战胜人类。

  该项目并未给IBM带来可以销售的产品,但却让我们意识到:基础科学研究所面临的巨大挑战是值得我们去迎接的,虽然企业在这方面的收益还无法量化。

  随着顶级科技公司争相在产品中融入智能技术,谷歌并不是唯一一家研究围棋AI的公司,Facebook对围棋人工智能的研究整合此前也亮相最新的计算技术:深卷积神经网络(deep convolutional neural networks)和蒙特卡洛树搜索(Monte Carlo tree search),前者利用类似于大脑的算法来学习和识别棋盘上各种模式的重要性,而后者相当于一种超前思维,用于计算详细的战略步骤。

    Facebook和谷歌在围棋人工智能方面的研究具有极大的代表意义。与国际象棋相比,围棋更具深度。要让计算机掌握相关技巧,需要更多类似于人类的模式识别和直觉判断技巧,计算机象棋软件越来越优秀,已将揭开了这项游戏的神秘面纱;相比之下,围棋目前更加神秘。但将来,围棋的神秘色彩也可能不复存在。

贴两张图,一张是: AlphaGo所使用的神经网络结构示意图;一张是:AlphaGo与欧洲围棋冠军樊麾的5局较量
我个人觉得是很懊丧的,我曾经发过贴说到人类会被自己的科技所灭亡,或者说更新掉。不过我认为那是发生在100年或者200年以后的事情,和我们无关,但现在看来未来正在咄咄逼人的向人类敲起了丧钟。我觉得现在炒股票的高手已经不是学经济的了,而是计算机了。人类将来可能是完败,不知道生很多孩子还有啥意义。


樊麾二段
快棋1小时,1分读秒
另外,后4盘中局认输

樊麾二段
快棋1小时,1分读秒
另外,后4盘中局认输
限死规则的游戏,那是电脑的优势。但这不是思考。
期待和顶级高手的对决
( ⊙o⊙ )哇,这个强烈期待。。。围棋可比国际象棋还要难。。
bjnr 发表于 2016-1-29 16:48
期待和顶级高手的对决

什么时候人工智能能独立发现相对论、量子力学这样的物理原理,才算人工智能具有了“智能”。

不好意思,不注意点成回复你了,其实这个并不是对你说的回复,是单独一楼。
猎杀m1a2 发表于 2016-1-29 19:29
什么时候人工智能能独立发现相对论、量子力学这样的物理原理,才算人工智能具有了“智能”。

不好意 ...
那到是的,电脑可能在演算相对论,弦理论,四色问题等等比较先进,但要它们想出相对论那应该是不可能的。记得电脑写诗就十分滑稽。

嗯,看来人类在很多领域还是不可取代。

larry0211 发表于 2016-1-29 19:53
那到是的,电脑可能在演算相对论,弦理论,四色问题等等比较先进,但要它们想出相对论那应该是不可能的。 ...


电脑是逻辑运算为基础编写软件,就比如这个计算机学习法,仍然是在确定规则下结合统计、试算、淘汰,对信息进行运算和逻辑分析。

人脑完全的思考机制还谈不上彻底揭示,但是就人脑神经元而言,其实就只有一点:蛋白质构型变化,这个是人脑一切神经活动的基础。

看上去人脑似乎比电脑还要不能创新,还要简单。实际上宇宙中最简单的才最复杂,仅仅是20种必须氨基酸组成的蛋白质,其可能的构型,和构型变化,就远远超过了宇宙中质子数量——包括一切结合在原子核内以及被中子星简并的质子(这个质子数量是来自于天体物理学家亚瑟·爱丁顿的一个估算。),所以仅仅是神经元处理的信息就充满无穷可能的复杂性


其实关于人工智能能不能达到人的智能程度,在科学界也是分为截然相反的两派观点:一派以计算机科学家为主,少量生物学家在其中,认为可以,只要计算机计算力不断发展,比如量子计算机发明;另一派以神经生物学家和脑科学家为主,极少量计算机科学家参与,认为绝对不可能——哪怕有量子计算机,也只是计算力跨越式的发展,但计算力无论如何强大都不会出现人的智能(以人类中聪明者为准,患有智力障碍的人类不能用来作为标准)。我说的基本就是后一种观点中的一种立论。
larry0211 发表于 2016-1-29 19:53
那到是的,电脑可能在演算相对论,弦理论,四色问题等等比较先进,但要它们想出相对论那应该是不可能的。 ...


电脑是逻辑运算为基础编写软件,就比如这个计算机学习法,仍然是在确定规则下结合统计、试算、淘汰,对信息进行运算和逻辑分析。

人脑完全的思考机制还谈不上彻底揭示,但是就人脑神经元而言,其实就只有一点:蛋白质构型变化,这个是人脑一切神经活动的基础。

看上去人脑似乎比电脑还要不能创新,还要简单。实际上宇宙中最简单的才最复杂,仅仅是20种必须氨基酸组成的蛋白质,其可能的构型,和构型变化,就远远超过了宇宙中质子数量——包括一切结合在原子核内以及被中子星简并的质子(这个质子数量是来自于天体物理学家亚瑟·爱丁顿的一个估算。),所以仅仅是神经元处理的信息就充满无穷可能的复杂性


其实关于人工智能能不能达到人的智能程度,在科学界也是分为截然相反的两派观点:一派以计算机科学家为主,少量生物学家在其中,认为可以,只要计算机计算力不断发展,比如量子计算机发明;另一派以神经生物学家和脑科学家为主,极少量计算机科学家参与,认为绝对不可能——哪怕有量子计算机,也只是计算力跨越式的发展,但计算力无论如何强大都不会出现人的智能(以人类中聪明者为准,患有智力障碍的人类不能用来作为标准)。我说的基本就是后一种观点中的一种立论。
大boss投入就是强,个体户们奋斗了20年也望尘莫及
猎杀m1a2 发表于 2016-1-29 20:48
电脑是逻辑运算为基础编写软件,就比如这个计算机学习法,仍然是在确定规则下结合统计、试算、淘汰,对 ...
今天的电脑不够强大,人脑可是有1000亿个神经元的!
如果电脑有1000亿核,基本能看不出来和人脑的差别了。99.99%的人类的事情,他都能干的比人类还要好。
实际上,雅达利事件就表明,一个深度学习的AI,可以仅仅凭着摄像机对着电子游戏,然后就学会,最后打败了人类冠军,我们还没有教其任何规则!
当然,这不算真正的智慧,自动机总有不能判定的停机问题,但人类没有,哥德尔定理就说明了这点。
这个程序的部署环境有什么要求?能不能自己拷一套玩玩。

hjfgcx 发表于 2016-1-30 19:16
今天的电脑不够强大,人脑可是有1000亿个神经元的!
如果电脑有1000亿核,基本能看不出来和人脑的差别了 ...


然而电子游戏也是有规则的。人工智能也只是说通过大量试错,模仿了高水平玩家的套路。本来游戏就有很强规则性,不论何种游戏都无法避免这点,棋类这种具有极强穷举运算的就有优势,电子游戏这种需要操作极为多线和快速的,也是电脑占有绝对优势;然而也就是停留于此了,毕竟限于规则,限制竞赛环境,人工智能靠逻辑运算,基本就是以穷举方式实现智能。这个可以说是没有真正理解能力和创造能力的。
hjfgcx 发表于 2016-1-30 19:16
今天的电脑不够强大,人脑可是有1000亿个神经元的!
如果电脑有1000亿核,基本能看不出来和人脑的差别了 ...


然而电子游戏也是有规则的。人工智能也只是说通过大量试错,模仿了高水平玩家的套路。本来游戏就有很强规则性,不论何种游戏都无法避免这点,棋类这种具有极强穷举运算的就有优势,电子游戏这种需要操作极为多线和快速的,也是电脑占有绝对优势;然而也就是停留于此了,毕竟限于规则,限制竞赛环境,人工智能靠逻辑运算,基本就是以穷举方式实现智能。这个可以说是没有真正理解能力和创造能力的。
猎杀m1a2 发表于 2016-1-29 19:29
什么时候人工智能能独立发现相对论、量子力学这样的物理原理,才算人工智能具有了“智能”。

不好意 ...
如果以“独立发现相对论、量子力学”为智能标准的话那99.999%的人都是没有智能的(包括我。。。

我觉得最关键的是抽象化能力:比如一个围棋的棋眼,把棋眼上的黑棋白棋全都往左移一格,对人类玩家来说是一样的,解法也一样~可是对电脑算法来说两个棋局由完全不同的向量表示,结果它要为这个“完全不同”的棋局再准备一套方案。。。。

当然这是最简单的抽象化的例子,完全可以让编程人员写进去。可是人类是有自行发现抽象化关系的能力的,什么时候计算机也能我就要害怕了~
用穷举法,破解围棋还是比较容易的,就看运算量了。
enroger 发表于 2016-1-31 07:53
如果以“独立发现相对论、量子力学”为智能标准的话那99.999%的人都是没有智能的(包括我。。。) ...
那是你不从事物理学,这只是打个比方。

说明当今关于人工智能能否实现,科学界亦有可以说在神经生物学,脑科学和少部分计算机科学家认为,算得再快的电脑,不管用何种算法,也只是建立在穷举上的“无限尝试”和按照预设逻辑“极速演算”,并不具备思考,联想,创新能力。
enroger 发表于 2016-1-31 07:53
如果以“独立发现相对论、量子力学”为智能标准的话那99.999%的人都是没有智能的(包括我。。。) ...
是的,“猎杀美国坦克”只是举了一个例子,并不是说一定要发现相对论的。相对论也没啥稀奇,我们有强大的民科呢,我们超大就有啊。其实民科计算机也是无法模仿的,在这里他们的成就包括:”彻底破解万有引力源头 宇宙循环核心论 “;”彻底解决格尔德巴赫猜想“等等。计算机一定看不懂。

不过你说的一个问题其实真的挺可怕的,就是实际上在将来,最终人类可能99.999%将被计算机代替(包括我...。,这是从价值论出发思考的,因为工人将全面被计算机取代,而没有价值的人在富人的眼里将会越来越变得没价值(现在的商家已经准备把13亿穷人的市场放弃,而只关心1亿的富人了,这不是吐槽而是人类被无形的手牵着走的必然规律),政治家制定政策将越来越倾向于让穷人自生自灭,只关心少数人的利益。所以很可能最终淘汰人类的将是人类自己创建的政治经济伦理体系,而人工智能将是主导这场灾难的一个主要工具。

我不想反对这样的趋势,这是必然的,我们只能看着它们发生。我想三体的作者大刘应该有相同的感受。

猎杀m1a2 发表于 2016-1-31 10:29
那是你不从事物理学,这只是打个比方。

说明当今关于人工智能能否实现,科学界亦有可以说在神经生物学 ...
我只是对你的比喻开个玩笑~其实我是想说明计算机和人的主要区别是抽象化能力。同意你的观点,我们离天网还很远~
hjfgcx 发表于 2016-1-30 19:16
今天的电脑不够强大,人脑可是有1000亿个神经元的!
如果电脑有1000亿核,基本能看不出来和人脑的差别了 ...
雅达利事件在百度上查了,似乎和你说的关系不够密切,能不能具体点说你是指啥事件?
哥德尔定理又重新仔细的阅读了一遍,也没体会出什么关系,你能说得清晰点吗?

雅达利是指让美国游戏机走向衰退的事件?你所说的”深度学习AI“是不是指外挂?
哥德尔是不是指他的不完备性定理呢?哥德尔并不是针对计算机的,人类不完备也包括啊?
larry0211 发表于 2016-1-31 12:35
是的,“猎杀美国坦克”只是举了一个例子,并不是说一定要发现相对论的。相对论也没啥稀奇,我们有强大的 ...
我们就当好消费者就是了,不过怎么找工作是个问题。。。。是的,就算搞不出真正的人工智能,伪智能已经能取代大多数的工作了,不需要农民或者工人甚至白领的未来~我认为有两种极端可能性:
1,共产主义的物质条件达到了,大家享福吧~
2,贫富悬殊加大,所有生产手段集中在少数富人,我们自生自灭吧~

我悲观的倾向2~
enroger 发表于 2016-1-31 12:49
我们就当好消费者就是了,不过怎么找工作是个问题。。。。是的,就算搞不出真正的人工智能,伪智能已经能 ...
机器经常出些设计者意料之外,乃至可以说古怪的故障。长期完善的资料库尽管可以使成熟机器这个问题都有应对方案,但是机器总是不断更新的。这就需要具备理解、思考能力的技术工人来管理和维护。

所以我认为伪智能会使非技术工岗位大量消失。
计算能力超过人力很容易实现

思考方式却很难

我认为最终会通过 故意安排出错 随机比较优选 这样一种进化模式才能达到
larry0211 发表于 2016-1-31 12:45
雅达利事件在百度上查了,似乎和你说的关系不够密切,能不能具体点说你是指啥事件?
哥德尔定理又重新仔 ...
就是没有任何人教,通过视频对游戏学习,然后战胜了人类冠军,这也是deep mind干的事情。
人类不受不完备性定理约束。另外,由此推知,人类不仅仅只有算法。


@larry0211
人工智能,哪怕是深度学习的,都是建立在穷举,穷试的逻辑运算上的。

比如最近,深度学习神经网络软件,被人针对其原理,演示了其呆板的特性,文章标题《深度神经网络很好骗》,链接:

深度神经网络很好骗

用一张熊猫的照片,给这个软件学习后识别,神经网络软件准确的识别出这个是熊猫,很厉害;
然后,加入0.7%的扰动,猜猜结果是什么?这个软件以99.3%,可以说一口咬定,这个是长臂猿?长臂猿.....长臂猿...... 长臂猿见到了要泪奔啊。

于是一副长着熊猫样的长臂猿的印象就深刻的被这个人工智能学习了。


再次测试,这回是狗。未加干扰的照片,人工智能准确判断,这是一只“多格”,然后,也是加入干扰,人工智能一口咬定,这是一只“哦斯揣奇”



还测试了很多,这是测试用的噪点图



所以人工智能要在限死了规则,才能胜过人类,而现实中,无论是科研,生产中找出故障,灵活应对人与人之间的相处,以及战场上,是没有规则的。在现实中,人工智能再先进还是辅助人的,就是辅助人手脚慢,逻辑运算慢的不足。



@larry0211
人工智能,哪怕是深度学习的,都是建立在穷举,穷试的逻辑运算上的。

比如最近,深度学习神经网络软件,被人针对其原理,演示了其呆板的特性,文章标题《深度神经网络很好骗》,链接:

深度神经网络很好骗

用一张熊猫的照片,给这个软件学习后识别,神经网络软件准确的识别出这个是熊猫,很厉害;
然后,加入0.7%的扰动,猜猜结果是什么?这个软件以99.3%,可以说一口咬定,这个是长臂猿?长臂猿.....长臂猿...... 长臂猿见到了要泪奔啊。

Dc5_R34NHW-aiG-YKb-cqBu9dD6IY5QGqXZToAhw3wTyAgAA9QAAAFBO.png (248.84 KB, 下载次数: 56)

下载附件 保存到相册

2016-1-31 21:59 上传


于是一副长着熊猫样的长臂猿的印象就深刻的被这个人工智能学习了。


再次测试,这回是狗。未加干扰的照片,人工智能准确判断,这是一只“多格”,然后,也是加入干扰,人工智能一口咬定,这是一只“哦斯揣奇”

7RK1f5ueQ0qbQzVnNFWahQu9h5CXiImIlzFbJetN-RjEAQAA3gAAAFBO.png (182.1 KB, 下载次数: 56)

下载附件 保存到相册

2016-1-31 22:01 上传




还测试了很多,这是测试用的噪点图

DwhDHjDla2_l17sNI0xiOkOCLpwpKla6vmi_D0wL_MICBQAA6wIAAFBO.png (539.81 KB, 下载次数: 55)

下载附件 保存到相册

2016-1-31 22:02 上传




所以人工智能要在限死了规则,才能胜过人类,而现实中,无论是科研,生产中找出故障,灵活应对人与人之间的相处,以及战场上,是没有规则的。在现实中,人工智能再先进还是辅助人的,就是辅助人手脚慢,逻辑运算慢的不足。

hjfgcx 发表于 2016-1-31 19:15
就是没有任何人教,通过视频对游戏学习,然后战胜了人类冠军,这也是deep mind干的事情。
人类不受不完 ...
最近这类软件的算法被针对的测试一下抗干扰能力,结果软件表现的很雷人,见24楼。
zhepro 发表于 2016-1-31 15:36
计算能力超过人力很容易实现

思考方式却很难
24楼,最近测试了这类人工智能抗干扰能力,事实证明,真的是一点抗干扰能力都没有。
猎杀m1a2 发表于 2016-1-31 22:03
@larry0211
人工智能,哪怕是深度学习的,都是建立在穷举,穷试的逻辑运算上的。
非常有趣,笑死人了。

很好,人工智能看来只能进化成先进的人工智能,但就是无法进化成人类。

“机器经常出些设计者意料之外,乃至可以说古怪的故障”?你的意思是不是也是说,机器受不完备性定理约束?这好像太有意思了,十分的惊讶。
hjfgcx 发表于 2016-1-31 19:15
就是没有任何人教,通过视频对游戏学习,然后战胜了人类冠军,这也是deep mind干的事情。
人类不受不完 ...
你的意思是不是和猎杀m1a2一样?
就是机器经常出些设计者意料之外,乃至可以说古怪的故障。
因为他们受不完备性定理的约束?
是这样吗?很惊讶。
larry0211 发表于 2016-2-1 00:10
你的意思是不是和猎杀m1a2一样?
就是机器经常出些设计者意料之外,乃至可以说古怪的故障。
因为他们受 ...
出意外和不完备性无关。只是高程度的覆盖所需算法计算量大,做不到,导致盲点。

猎杀m1a2 发表于 2016-1-31 22:03
@larry0211
人工智能,哪怕是深度学习的,都是建立在穷举,穷试的逻辑运算上的。


我同意你最后一句,但不同意“科研,生产中找出故障,灵活应对人与人之间的相处,以及战场上,是没有规则的”的说法。
没有规则就没有认识。今天1+1=2,明天1+1只能等于3,今天有雨地湿,明天没雨也湿,今天我家孩子长得像我家孩子,明天长得像他家孩子,谁也不可能认识。
而且,撇开意识不谈,物质世界必然受基本的物理规律控制。物质决定意识,所以就是人的语言,也是有规律的,只是规律看起来非常灵活罢了。
围棋规则明确,但阿尔法狗并没有被教规则。况且,机器翻译等,很多规则不明显的领域也是能逐渐做好的了。

即如你举的,这些对抗性样本,如果被加入训练,我告诉那个机器,“长臂猿”其实是“熊猫”,训练下去,还会错吗?你这个100*100的图,像素点的变化是有限的,不管实际能不能做到,理论上接近穷举是可以的。说白了,我们现在用的才模拟几千个神经元,根本不知道如果要发展到如同人脑的1000亿神经元的深度学习后,这些对抗性样本是否还有效。我们不能说人工智能发展到那个程度一定能解决对抗性样本,但也不能说这就一定是他的固有缺陷。原理上说,客观世界必然有规则,有规则必然被认识,只是个难度和发展阶段。

深度学习可以模拟人的大脑99%的部分,也就是那个算法部分,但人还有非算法的部分。那1%决定了人工智能是辅助的,那1%本质是什么(有人说是创造力,有人说是归纳能力,有人说是主观能动性,有人说是自我意识,但它们的物质本质和原理是什么?这才是我说的本质),我们还不知道,因为如果知道,我们就可以制造意识了。
















顺便说一句,你对电脑围棋的理解是错误的。如果以规则来划分,围棋规则最简单,应该是最早突破的棋类才对,象棋才应该是较晚突破的。同样,如果以规则来划分,5*5路围棋和19*19路就根本没区别。围棋难在,真正的是另一种规则,即对棋型如何理解,一千个高手就有一千个看法,从这个角度上看,其规则难度是非常巨大的,不小于人类的语言交流,你可以参见FACEBOOK的围棋AI的田博士的文章。
猎杀m1a2 发表于 2016-1-31 22:03
@larry0211
人工智能,哪怕是深度学习的,都是建立在穷举,穷试的逻辑运算上的。


我同意你最后一句,但不同意“科研,生产中找出故障,灵活应对人与人之间的相处,以及战场上,是没有规则的”的说法。
没有规则就没有认识。今天1+1=2,明天1+1只能等于3,今天有雨地湿,明天没雨也湿,今天我家孩子长得像我家孩子,明天长得像他家孩子,谁也不可能认识。
而且,撇开意识不谈,物质世界必然受基本的物理规律控制。物质决定意识,所以就是人的语言,也是有规律的,只是规律看起来非常灵活罢了。
围棋规则明确,但阿尔法狗并没有被教规则。况且,机器翻译等,很多规则不明显的领域也是能逐渐做好的了。

即如你举的,这些对抗性样本,如果被加入训练,我告诉那个机器,“长臂猿”其实是“熊猫”,训练下去,还会错吗?你这个100*100的图,像素点的变化是有限的,不管实际能不能做到,理论上接近穷举是可以的。说白了,我们现在用的才模拟几千个神经元,根本不知道如果要发展到如同人脑的1000亿神经元的深度学习后,这些对抗性样本是否还有效。我们不能说人工智能发展到那个程度一定能解决对抗性样本,但也不能说这就一定是他的固有缺陷。原理上说,客观世界必然有规则,有规则必然被认识,只是个难度和发展阶段。

深度学习可以模拟人的大脑99%的部分,也就是那个算法部分,但人还有非算法的部分。那1%决定了人工智能是辅助的,那1%本质是什么(有人说是创造力,有人说是归纳能力,有人说是主观能动性,有人说是自我意识,但它们的物质本质和原理是什么?这才是我说的本质),我们还不知道,因为如果知道,我们就可以制造意识了。
















顺便说一句,你对电脑围棋的理解是错误的。如果以规则来划分,围棋规则最简单,应该是最早突破的棋类才对,象棋才应该是较晚突破的。同样,如果以规则来划分,5*5路围棋和19*19路就根本没区别。围棋难在,真正的是另一种规则,即对棋型如何理解,一千个高手就有一千个看法,从这个角度上看,其规则难度是非常巨大的,不小于人类的语言交流,你可以参见FACEBOOK的围棋AI的田博士的文章。
我同意你最后一句,但不同意“科研,生产中找出故障,灵活应对人与人之间的相处,以及战场上,是没有规 ...

  对于人脑为何有理解力,创造力,目前还没得到完全证实,但认为这与神经元完全以蛋白质级联和构象变化进行模拟运算~这种变化理论上有无穷多种
   对于人脑的超强触发联想回忆能力,这认为与分布式储存能力有关。

   后者以后可能能以‘类脑计算’实现,不过这个类计算原理的研究者也认为其实现不了人真正的智能,最多做到‘非常聪明的狗’的智能
猎杀m1a2 发表于 2016-2-1 12:08
对于人脑为何有理解力,创造力,目前还没得到完全证实,但认为这与神经元完全以蛋白质级联和构象变化 ...
人脑的的思维模式就是模式匹配,不断建立模式,然后对新事物用模式匹配的方式来识别。

这跟目前的人工智能主流方向并没有本质区别,要说区别,就是电脑相对人脑来说还远不够强大。

但迟早有那么一天的。

involute 发表于 2016-2-1 16:54
人脑的的思维模式就是模式匹配,不断建立模式,然后对新事物用模式匹配的方式来识别。

这跟目前的人工 ...


人的认知也不是模式匹配,而是联想。一个物体只在人感觉中展现部分信息,但是人会先自动的联想这个物体的全貌,然后一边联想一边自动的判别物体上那些低对比度信号,这样就完成认知。

这还只是认知,思维还有理解事物和联想,人的理解事物是有大量顿悟和联想为基础的,不是逻辑运算式的。


  其实关于人工智能,在科学界并不是认为其一定能做到人脑这样的智能的,甚至无法肯定,人工智能能不能真正实现,因为如果最后证明智能不是靠计算力,而是靠非线性的变换,那么除非具有一台每秒运算次数超过这个可观测宇宙所有质子数量,通过模拟人脑所有神经活动,才能实现真正人工智能。

  有一点要注意的是,其实人脑运算能力并不强大,可以说大部分神经信号不是运算,同时也不是数字式的。人脑的思维,采用的是将信息转化为蛋白质构象,然后通过级联,直接模拟,并且不是一个神经元就模拟全部,而是用模拟方式(蛋白质构象变化)拆分到神经网络。由于蛋白质构象和级联具有无限变化特性。。。。所以模拟也是无穷的。
involute 发表于 2016-2-1 16:54
人脑的的思维模式就是模式匹配,不断建立模式,然后对新事物用模式匹配的方式来识别。

这跟目前的人工 ...


人的认知也不是模式匹配,而是联想。一个物体只在人感觉中展现部分信息,但是人会先自动的联想这个物体的全貌,然后一边联想一边自动的判别物体上那些低对比度信号,这样就完成认知。

这还只是认知,思维还有理解事物和联想,人的理解事物是有大量顿悟和联想为基础的,不是逻辑运算式的。


  其实关于人工智能,在科学界并不是认为其一定能做到人脑这样的智能的,甚至无法肯定,人工智能能不能真正实现,因为如果最后证明智能不是靠计算力,而是靠非线性的变换,那么除非具有一台每秒运算次数超过这个可观测宇宙所有质子数量,通过模拟人脑所有神经活动,才能实现真正人工智能。

  有一点要注意的是,其实人脑运算能力并不强大,可以说大部分神经信号不是运算,同时也不是数字式的。人脑的思维,采用的是将信息转化为蛋白质构象,然后通过级联,直接模拟,并且不是一个神经元就模拟全部,而是用模拟方式(蛋白质构象变化)拆分到神经网络。由于蛋白质构象和级联具有无限变化特性。。。。所以模拟也是无穷的。
猎杀m1a2 发表于 2016-2-1 19:09
人的认知也不是模式匹配,而是联想。一个物体只在人感觉中展现部分信息,但是人会先自动的联想这个物体 ...
什么联想,什么自动,这根本不是描述大脑思维的描述。

这人我面熟,这歌好像听过,这是典型的模式匹配。

人脑对特定的信号会在特定的区域引起神经元活跃性放电,这不妥妥的模式匹配吗?

“计算能力”,呵呵,是个人都知道所谓人工智能取决于算法而不是运算能力,所谓运算能力只不过是实现算法的基本要求。

人脑照样取决于“计算能力”,就是所谓一个信号刺激能在单位时间内引起多少个神经元的反应,说人脑不靠计算能力,呵呵,你把“计算”认为是算算术了吧?你把脑容量降低一半试试,你把神经元的电化学信号传递速度降低一半试试?
involute 发表于 2016-2-1 19:43
什么联想,什么自动,这根本不是描述大脑思维的描述。

这人我面熟,这歌好像听过,这是典型的模式匹配 ...
   “这人我面熟,这歌好像听过”这还真不是模式匹配。神经网络的记忆是分布在每一个神经元的,不是信息检索提取式的。当信息刺激进入大脑,会触发第一个接触的大脑神经元处理信息,然后这个神经元获得的信息会触发蛋白质级联反应,符合,记忆的一个非常小的片段就被触发,然后根据级联的反应,又触动更多级蛋白反应,然后生成调控神经递质的蛋白质反应,然后神经递质释放信号,信号又在网络中进入若干神经元,然后又再触动,又进入更多神经元。人脑记忆,不是将信息整个处理,而是弥散在神经网络中拆开到每一个神经元中;人脑回忆与再认,也没有信息检索和储存信息提取,就是又逆向触发这些所有弥散片段。
involute 发表于 2016-2-1 19:43
什么联想,什么自动,这根本不是描述大脑思维的描述。

这人我面熟,这歌好像听过,这是典型的模式匹配 ...
  算法不能产生人工智能,即使是深度神经网络这样拟神经网络的都不能,因为深度神经网络算法仍然只是模拟了最简单,只有几个信息级联规则的“数码神经网络”,这个和人脑复杂度就好比蚂蚁与宇宙的差别。
involute 发表于 2016-2-1 19:43
什么联想,什么自动,这根本不是描述大脑思维的描述。

这人我面熟,这歌好像听过,这是典型的模式匹配 ...
为什么说人脑没有“计算能力”,计算,是要在使用算式算法的情况下,将信息变为可算的数量信息,然后应用算式算法计算。人脑其实是没有算式算法的。
猎杀m1a2 发表于 2016-2-1 21:49
算法不能产生人工智能,即使是深度神经网络这样拟神经网络的都不能,因为深度神经网络算法仍然只是模拟 ...
得了吧,现在连什么叫“人工智能”都没法准确定义,你就敢说“即使XX也不能”。

复杂度是有差距,但请注意我说的是“迟早有一天”,至于什么蚂蚁与宇宙,呵呵,夸张到姥姥家了。
猎杀m1a2 发表于 2016-2-1 21:48
“这人我面熟,这歌好像听过”这还真不是模式匹配。神经网络的记忆是分布在每一个神经元的,不是信息 ...
呵呵,模式匹配是一种模式,而不是特定的算法描述,与你说的完全不矛盾。

对于熟悉的场景,特定神经元会产生兴奋,而完全陌生的则不会,这不是模式匹配是麻?说什么信息检索和存储信息提取,如此生搬硬套也让人无言以对,人脑当然有信息提取与检索的方式,只是与计算机的方式不同而已。
猎杀m1a2 发表于 2016-2-1 21:56
为什么说人脑没有“计算能力”,计算,是要在使用算式算法的情况下,将信息变为可算的数量信息,然后应用 ...
人脑没有“算式算法”,呵呵,又生搬硬套“算法”的概念。

人脑有自己的运作方式,这不是一种算法是嘛,人脑的运作离不开以下几个词汇:模式、模型、信息处理。