alphago击败李世石究竟意味着什么

来源:百度文库 编辑:超级军网 时间:2024/03/29 19:19:53


从各种回复来看,很多人并不知道alphago击败李世石的意义,我觉得还是有必要简单的整理一下。

围棋是人类开放信息博弈的巅峰,几乎拥有无限的可能性(远超宇宙电子总数,事实上,比哈勃常数预言的宇宙电子总数还高出近百个量级),现在的计算机远远无法穷尽其所有分支,这与国际象棋或者是中国象棋有着本质的不同,后两者超级计算机可以以蛮力直接遍历所有分支找出最优解,就像20年前深蓝所做的那样。所以围棋是人工智能研究的一个热点和难点,多年来一直没有显著的进展,原来各种基于蒙特卡洛树搜索的算法,最多也就业余5段的水平,在有限时间内很多时候搜索出来的解以职业棋手来看太差了,因为本质上只从几乎无穷的搜索分支中搜索了其中的一部分,在这里,人工智能主要缺乏的是人类一样的大局观以及对围棋“势”的判断,某种意义上像棋感和大局观这样的直觉学习和判断有点像人类才具备的能力,这同按照固定算法进行分析以及对事先输入的确切结果进行匹配的人工智能有着本质的不同。

alphago的突破在于,引入了深入学习算法构建了一个强大的价值网络,通过学习人类的海量棋局,同时自己巨量的左右对弈,自动学习和积累对弈中取胜的要素,不断完善自己的决策价值网络。这里的核心是学习能力,alphago的创造者没有一位围棋高手,并不是他们事先编程alphago应该如何下棋或者如何计算每步棋,他们只是建立了一个会学习的算法而已,他们并不知道alphago具体是如何下棋的,alphago会根据价值网络找到最重要的一些点(这很像人类棋手的“大局观”或“棋感”等直觉,这个价值网络的数据是学习来的,alphago的创造者事先也不知道具体的参数模型,当然他们现在可以打印出来也学习下,呵呵),然后再通过经典的蒙特卡洛树搜索分析推演这些点,从中找到它认为的最佳点,或者说计算出的胜率最高的点。某种意义上,它同人类棋手的做法一样,先通过经验和直觉判断找出认为重要的点(训练出的棋感和大局观判断),然后推演步骤,找出最合理的点,不同的是,alphago学习的速度更快,积累的经验和数据更多,其价值网络很多的时候能找到凭人类经验直觉还可能没找到的一些高价值点(那些被认为神之一手的棋。。),同时推演时计算速度更快,李世石同志也就败下阵来。。

alphago里程碑的事情是直观的展示了深度学习算法的威力,现在的人工智能已经可以通过学习来找到人类自己都不知道如何解决的问题(比如如何下出某步神之一手),这里同一般人们所知道的人工智能是完全不同的,那些“死”的人工智能只是简单匹配人们事先输入的那些确切结果,绝对不会超出人类已有的能力,而alphago是自己去学习找到这些解的。当然了,目前的深度学习算法仍然不是强人工智能(其学术定义就是人脑标准的智能),比如alphago还不能自己创造新算法,只具备对一类模式进行学习的能力(当然也能较方便的扩展到其它模式,但仍然是有限的,且关键是这过程不是自主的),人类离强人工智能应该还有比较遥远的距离,但alphago的进展昭示了这一天恐怕比很多人所想的更早的到来,当第一个能自我优化算法的人工智能降临时,人类前途未卜。

我觉得研究如何确保人工智能的友善性,或者叫做机器伦理学,可能是未来10-20年非常迫切的课题,好在目前世界范围内已有权威的学者在思考这个问题,这可能是人类之幸,我持谨慎乐观态度。

从各种回复来看,很多人并不知道alphago击败李世石的意义,我觉得还是有必要简单的整理一下。

围棋是人类开放信息博弈的巅峰,几乎拥有无限的可能性(远超宇宙电子总数,事实上,比哈勃常数预言的宇宙电子总数还高出近百个量级),现在的计算机远远无法穷尽其所有分支,这与国际象棋或者是中国象棋有着本质的不同,后两者超级计算机可以以蛮力直接遍历所有分支找出最优解,就像20年前深蓝所做的那样。所以围棋是人工智能研究的一个热点和难点,多年来一直没有显著的进展,原来各种基于蒙特卡洛树搜索的算法,最多也就业余5段的水平,在有限时间内很多时候搜索出来的解以职业棋手来看太差了,因为本质上只从几乎无穷的搜索分支中搜索了其中的一部分,在这里,人工智能主要缺乏的是人类一样的大局观以及对围棋“势”的判断,某种意义上像棋感和大局观这样的直觉学习和判断有点像人类才具备的能力,这同按照固定算法进行分析以及对事先输入的确切结果进行匹配的人工智能有着本质的不同。

alphago的突破在于,引入了深入学习算法构建了一个强大的价值网络,通过学习人类的海量棋局,同时自己巨量的左右对弈,自动学习和积累对弈中取胜的要素,不断完善自己的决策价值网络。这里的核心是学习能力,alphago的创造者没有一位围棋高手,并不是他们事先编程alphago应该如何下棋或者如何计算每步棋,他们只是建立了一个会学习的算法而已,他们并不知道alphago具体是如何下棋的,alphago会根据价值网络找到最重要的一些点(这很像人类棋手的“大局观”或“棋感”等直觉,这个价值网络的数据是学习来的,alphago的创造者事先也不知道具体的参数模型,当然他们现在可以打印出来也学习下,呵呵),然后再通过经典的蒙特卡洛树搜索分析推演这些点,从中找到它认为的最佳点,或者说计算出的胜率最高的点。某种意义上,它同人类棋手的做法一样,先通过经验和直觉判断找出认为重要的点(训练出的棋感和大局观判断),然后推演步骤,找出最合理的点,不同的是,alphago学习的速度更快,积累的经验和数据更多,其价值网络很多的时候能找到凭人类经验直觉还可能没找到的一些高价值点(那些被认为神之一手的棋。。),同时推演时计算速度更快,李世石同志也就败下阵来。。

alphago里程碑的事情是直观的展示了深度学习算法的威力,现在的人工智能已经可以通过学习来找到人类自己都不知道如何解决的问题(比如如何下出某步神之一手),这里同一般人们所知道的人工智能是完全不同的,那些“死”的人工智能只是简单匹配人们事先输入的那些确切结果,绝对不会超出人类已有的能力,而alphago是自己去学习找到这些解的。当然了,目前的深度学习算法仍然不是强人工智能(其学术定义就是人脑标准的智能),比如alphago还不能自己创造新算法,只具备对一类模式进行学习的能力(当然也能较方便的扩展到其它模式,但仍然是有限的,且关键是这过程不是自主的),人类离强人工智能应该还有比较遥远的距离,但alphago的进展昭示了这一天恐怕比很多人所想的更早的到来,当第一个能自我优化算法的人工智能降临时,人类前途未卜。

我觉得研究如何确保人工智能的友善性,或者叫做机器伦理学,可能是未来10-20年非常迫切的课题,好在目前世界范围内已有权威的学者在思考这个问题,这可能是人类之幸,我持谨慎乐观态度。
居然一直没有人回复。。是大家不感兴趣还是没看懂啊。。

自认为还是表述得蛮清晰的,大家能多了解点也是好的
楼主你发错板块了.....休闲畅谈你发这么严肃的话题做啥子
你几个月之前发还有人回的