第四局,很显然google把服务器的数量减少了

来源:百度文库 编辑:超级军网 时间:2024/04/29 10:28:29


导致计算能力大幅度下降,其实更关心,google每次投入了多少计算资源。感觉第三天最强,第二天其次,今天最弱

…………

更新,真实的原因已经出来,是李世石的下法,超出了alphago的“见识”,导致它以为的高胜率评分表,其实在真实中,是低胜率的。

导致计算能力大幅度下降,其实更关心,google每次投入了多少计算资源。感觉第三天最强,第二天其次,今天最弱

…………

更新,真实的原因已经出来,是李世石的下法,超出了alphago的“见识”,导致它以为的高胜率评分表,其实在真实中,是低胜率的。
楼主如何得出这个结论的
google的人发twitter说了,AlphaGo在79-87手之间,判断胜率都在70%左右,实际上专业棋手这时候就判断他的局势很不利了
肯定是算法问题,关键是李世石78那手棋
局势很明显的棋,阿尔法突然走了两步臭棋,只能说是短路了。
google的人发twitter说了,AlphaGo在79-87手之间,判断胜率都在70%左右,实际上专业棋手这时候就判断他的局 ...
你要是看过alpha的架构,就知道跟算法无关,他的能力强弱,取决于google给他的计算资源。

熊首督军 发表于 2016-3-13 18:46
你要是看过alpha的架构,就知道跟算法无关,他的能力强弱,取决于google给他的计算资源。


你看过AlphaGo的架构?
我很好奇,一个看过AlphaGo架构的人居然能得出这么一个结论。
熊首督军 发表于 2016-3-13 18:46
你要是看过alpha的架构,就知道跟算法无关,他的能力强弱,取决于google给他的计算资源。


你看过AlphaGo的架构?
我很好奇,一个看过AlphaGo架构的人居然能得出这么一个结论。
你看过AlphaGo的架构?
我很好奇,一个看过AlphaGo架构的人居然能得出这么一个结论。
为什么得不出这种结论,那你得出什么结论?
为什么得不出这种结论,那你得出什么结论?
我想先听听你的推理过程。
很好奇如果两台阿尔法狗对打会怎样,会不会陷入死循环
我觉得AlphaGO最强的地方是要保证能赢,而不是赢得漂亮.....
熊首督军 发表于 2016-3-13 18:46
你要是看过alpha的架构,就知道跟算法无关,他的能力强弱,取决于google给他的计算资源。
讲计算资源是指训练用的资源,这是比赛前就做好的。
下棋时只是用到预测,够用就行,资源不够最多算得慢一点,不影响下棋的能力。
我想先听听你的推理过程。
        alphago跟其他ai不同之处,是它的Value Network价值评估网络。

        他下棋的时候是这样,先用跟人类学习得到参数,给出一堆可以下的位置。

        然后他就调出自己跟自己下棋的模式,用策略下n步(n取决于计算能力),但是由于围棋的计算量特别大,不可能全部算完,后面的步只能用快速行棋走完(由工程师提前输入策略),然后看输赢,赢多少给出一个评分。

        用这种方式,把一开始给的那些可能都走一遍。就得到一个评分表,然后跟行棋策略给出的评分,取一个加权,分最高的,就是该下的地方。

        可以看出来,为了稳定性,参数跟昨天应该不会有大的不同,但是alphago表现的棋力降低很多,这是柯杰的解说,我其实看不出来。那么就极有可能是n值减少了,导致评分表的误差变大,水平降低。


乄go实际上是多人对1人嘛。如果李昌浩、李世石、加一堆中国选手对1个CPU的乄go。人类有人帮忙布局,有人帮忙关子。谁赢?
即使go赢了,那也只是说明用一群电脑战胜了一个人而且己。

乄go实际上是多人对1人嘛。如果李昌浩、李世石、加一堆中国选手对1个CPU的乄go。人类有人帮忙布局,有人帮忙关子。谁赢?
即使go赢了,那也只是说明用一群电脑战胜了一个人而且己。
乄go实际上是多人对1人嘛。如果李昌浩、李世石、加一堆中国选手对1个CPU的乄go。人类有人帮忙布局,有人帮 ...
1个cpu支撑不了alphago,如果是昨天的计算资源,依然是现在的规则,还是alphago赢。因为时间有限的情况下,人多没用,2小时探讨不出什么东西来

熊首督军 发表于 2016-3-13 20:39
1个cpu支撑不了alphago,如果是昨天的计算资源,依然是现在的规则,还是alphago赢。因为时间有限的情况下 ...

哪要几个小时讨论啊,你都没明白,例如每人1分钟给一个答案,李世石综合十个人,选一个大多数人的解作最终答案。
用一个十年前的围棋程序,用100*100台电脑运行,每台电脑10核。一样能达到非常高的水平。
基本上程序本身没啥突破性的进展。
熊首督军 发表于 2016-3-13 20:39
1个cpu支撑不了alphago,如果是昨天的计算资源,依然是现在的规则,还是alphago赢。因为时间有限的情况下 ...

哪要几个小时讨论啊,你都没明白,例如每人1分钟给一个答案,李世石综合十个人,选一个大多数人的解作最终答案。
用一个十年前的围棋程序,用100*100台电脑运行,每台电脑10核。一样能达到非常高的水平。
基本上程序本身没啥突破性的进展。
用一个十年前的围棋程序,用100*100台电脑运行,每台电脑10核。一样能达到非常高的水平。
基本上程序本 ...
你不懂,懒得跟你说

熊首督军 发表于 2016-3-13 20:11
alphago跟其他ai不同之处,是它的Value Network价值评估网络。

        他下棋的时候是这样, ...


更正错了
熊首督军 发表于 2016-3-13 20:11
alphago跟其他ai不同之处,是它的Value Network价值评估网络。

        他下棋的时候是这样, ...


更正错了
你不懂,懒得跟你说

那你就别说。
居然认为是几个人花几个小时讨论。多任务并行,这么简直都理解不了。


有些人明显的是没搞过棋类游戏,被“厂家”呼悠的团团转。
举个例子,厂家经常宣传的“电脑自己下一步,再自己模拟一个对手下一步”,听起来好像神呼其神。
搞过程序的告诉你,这本身就是程序的必然性,棋类程序自然要计算自己的得,也要计算对方的失;同样计算对方下一步的得,自己的失。
换句话说,正常电脑程序就没有自己是哪一方的概念,它只是把两方可能下法公平、平等的拿到自己的环境中进行评估。也就是更像一个裁判的角色。

有些人明显的是没搞过棋类游戏,被“厂家”呼悠的团团转。
举个例子,厂家经常宣传的“电脑自己下一步,再自己模拟一个对手下一步”,听起来好像神呼其神。
搞过程序的告诉你,这本身就是程序的必然性,棋类程序自然要计算自己的得,也要计算对方的失;同样计算对方下一步的得,自己的失。
换句话说,正常电脑程序就没有自己是哪一方的概念,它只是把两方可能下法公平、平等的拿到自己的环境中进行评估。也就是更像一个裁判的角色。
很好奇如果两台阿尔法狗对打会怎样,会不会陷入死循环
就等于电脑玩井字游戏一样,和局居多


还有厂家经常说的—个“电脑自己和自己对下,这样快速的提高自己的棋力”,又是—个神呼其神的宣传,像有生命—样。

那我来告诉你本质只是什么,说白了就是电脑先把一些常见的“局面”运算,然后解透,存储。以后遇到一样的局面就直接调存储的数据出来用,减少计算量。说白了,就是自己构建棋谱,不用输入人类棋谱。
当然,alphaGO有这样的庞大存储资源,而传统的电脑围棋未使用数据库,或数据库很小;如果单纯的比较程序的能力,并不见得比十年前的程序高。所以,之前的几年说是alphaGO在”自学习”的神话,其实就是存储局部局面的运算结果而己。

还有厂家经常说的—个“电脑自己和自己对下,这样快速的提高自己的棋力”,又是—个神呼其神的宣传,像有生命—样。

那我来告诉你本质只是什么,说白了就是电脑先把一些常见的“局面”运算,然后解透,存储。以后遇到一样的局面就直接调存储的数据出来用,减少计算量。说白了,就是自己构建棋谱,不用输入人类棋谱。
当然,alphaGO有这样的庞大存储资源,而传统的电脑围棋未使用数据库,或数据库很小;如果单纯的比较程序的能力,并不见得比十年前的程序高。所以,之前的几年说是alphaGO在”自学习”的神话,其实就是存储局部局面的运算结果而己。
还有厂家经常说的—个“电脑自己和自己对下,这样快速的提高自己的棋力”,又是—个神呼其神的宣传,像有生 ...
你这种方法,在围棋中,连业余棋手都下不赢
就等于电脑玩井字游戏一样,和局居多
不,计算力强的赢的概率高,70%这样
你这种方法,在围棋中,连业余棋手都下不赢
我说了哪种方法?你连我讨论的是啥问题都不清楚。
我说了哪种方法?你连我讨论的是啥问题都不清楚。
你说的存储棋谱,类似于专家系统那种方法呗
不,计算力强的赢的概率高,70%这样
不一定井字游戏对电脑来说,计算能力是严重过剩,这种游戏体现不出计算力的差距。
不,计算力强的赢的概率高,70%这样
我来告诉你。如果棋力无限强,两个对手。
对于国际象棋、中国象棋是先下者胜。
对于围棋,看贴目数。
不一定井字游戏对电脑来说,计算能力是严重过剩,这种游戏体现不出计算力的差距。
看我12楼的回复
你说的存储棋谱,类似于专家系统那种方法呗
我都不知道啥是专家,
你怎么知道我说的是专家系统。
我来告诉你。如果棋力无限强,两个对手。
对于国际象棋、中国象棋是先下者胜。
对于围棋,看贴目数。
我不会再回你了
我不会再回你了
我倒是听你讲讲,alphaGO“几年的自我学习,自我提高”是啥神奇玩艺,可别说你不知道。
不,计算力强的赢的概率高,70%这样
算法,策略和数据库一样的话算出的结果就一样,应该没棋力强弱之分,顶多一个算得快一个慢

熊首督军 发表于 2016-3-13 20:11
alphago跟其他ai不同之处,是它的Value Network价值评估网络。

        他下棋的时候是这样, ...


策略网络算棋的时候,并不是全部算完或者往后算n步,也不是根据预设快速行棋,
而是采用蒙特卡洛搜索树,搭配价值网络剪枝算法,也就是说根据价值网络计算结果,选出不好的分支,直接剔除,来减少计算量,提高计算速度。
熊首督军 发表于 2016-3-13 20:11
alphago跟其他ai不同之处,是它的Value Network价值评估网络。

        他下棋的时候是这样, ...


策略网络算棋的时候,并不是全部算完或者往后算n步,也不是根据预设快速行棋,
而是采用蒙特卡洛搜索树,搭配价值网络剪枝算法,也就是说根据价值网络计算结果,选出不好的分支,直接剔除,来减少计算量,提高计算速度。

longer 发表于 2016-3-13 19:31
很好奇如果两台阿尔法狗对打会怎样,会不会陷入死循环


肯定不会,规则已经输进去了,照规则执行就不会。不过数据库不更新且策略不调整,下多少局都是在复盘而已。但是如果实时更新数据库并且黑白子各采用不同策略,比如黑子追求每步棋选择最稳妥下法,白子则选择次稳妥下法,那就不一样了
longer 发表于 2016-3-13 19:31
很好奇如果两台阿尔法狗对打会怎样,会不会陷入死循环


肯定不会,规则已经输进去了,照规则执行就不会。不过数据库不更新且策略不调整,下多少局都是在复盘而已。但是如果实时更新数据库并且黑白子各采用不同策略,比如黑子追求每步棋选择最稳妥下法,白子则选择次稳妥下法,那就不一样了
还有厂家经常说的—个“电脑自己和自己对下,这样快速的提高自己的棋力”,又是—个神呼其神的宣传,像有生 ...
从这个回复,可以看出你对大数据分析/数据挖掘/机器学习毫无概念。
从这个回复,可以看出你对大数据分析/数据挖掘/机器学习毫无概念。
那请教,alpaGO如何神奇的大数据分析/数据挖掘?
肯定不会,规则已经输进去了,照规则执行就不会。不过数据库不更新且策略不调整,下多少局都是在复盘而 ...
会不会精神分裂啊~( ̄▽ ̄~)~
策略网络算棋的时候,并不是全部算完或者往后算n步,也不是根据预设快速行棋,
而是采用蒙特卡洛搜索 ...
不,你说的方法是普通的蒙特卡洛搜索树,这种方法只能跟业余棋手下,下不赢职业棋手的。
熊首督军 发表于 2016-3-13 18:46
你要是看过alpha的架构,就知道跟算法无关,他的能力强弱,取决于google给他的计算资源。
“他的能力强弱,取决于google给他的计算资源”————这句话的前提,就是实现他能力的程序的健壮度足够高,很明显,这次的结果与预期是不一致的,不是算法有问题,就是程序有bug
会不会精神分裂啊~( ̄▽ ̄~)~
咋会捏,在编程流程中,条件结构和分支结构属于最基本的结构啊,主体就一套,判断的时候带入不同条件和参数就可以了