关于深度学习人工智能

来源:百度文库 编辑:超级军网 时间:2024/05/02 16:51:37
好像看了半天也没人解释一下这个人工智能,深度学习的基本原理。他这个最底层,最基础的,是模仿神经系统的学习和记忆的。神经细胞之间通过大量的突触互相联接,学习后的记忆就存在突触的接触点上,是个电化学值,用数学表达的话,是个0到1之间的值,而不是像数字计算机储存的,0或者1。模拟的神经网络就是模仿多层的神经细胞(节点)互相联接,用一个0到1之间的系数模拟突触的电化学值。然后,这个模拟的神经网络通过学习不断的调整它巨量的系数值。之后,它就能对输入作出正确的反应(对战)。比较关键的是学习算法,怎样才能学得快,因为它的系数数量实在太过巨大。所以,经过学习后的系统能自主对变化作出正确反应,这个真的不是穷举法。不知道以后用硬件实现的模拟神经网络会不会产生意识。如果会的话,可能还真有一定的危险性。好像看了半天也没人解释一下这个人工智能,深度学习的基本原理。他这个最底层,最基础的,是模仿神经系统的学习和记忆的。神经细胞之间通过大量的突触互相联接,学习后的记忆就存在突触的接触点上,是个电化学值,用数学表达的话,是个0到1之间的值,而不是像数字计算机储存的,0或者1。模拟的神经网络就是模仿多层的神经细胞(节点)互相联接,用一个0到1之间的系数模拟突触的电化学值。然后,这个模拟的神经网络通过学习不断的调整它巨量的系数值。之后,它就能对输入作出正确的反应(对战)。比较关键的是学习算法,怎样才能学得快,因为它的系数数量实在太过巨大。所以,经过学习后的系统能自主对变化作出正确反应,这个真的不是穷举法。不知道以后用硬件实现的模拟神经网络会不会产生意识。如果会的话,可能还真有一定的危险性。
简单介绍一下机制:

你在内存上设 N 个信息节点,每一个节点都看作一个神经元。

神经元可生可灭,可生长可衰减。

你要赋予每一个神经元一个演化方程,一般来讲是 Markov 性质的演化,也即给出演化半群(离散时是演化矩阵)即可。

在全局上规定一个初始的效用函数,这个效用函数用于评比神经元的表现,也即实现系统的正反馈。

在进行一次“学习”的过程中,系统的整体判断是每个神经元做出的判断的集成,集成机制可复杂可简单,最简单的就是加权平均。每个神经元的权在每次学习后根据效用函数的评比结果调整。

最简单的方式是杀死一个百分比(可随机可固定)的神经元,譬如按给定效用函数表现最差的那20%,然后在剩余的80%中随机挑选1/4的人,补足神经元的数量。也就是说,把废黜的神经元的权值调整为0,然后生出新的神经元。

复杂些的方式是让每个神经元在具备演化机制的同时,有一个兴衰机制来确定该神经元的权值。这个兴衰机制好比生物神经元的兴奋程度,同样可以用一个随机过程(通常也是Markov过程)来描述,与神经元的演化机制所对应的随机过程间可以具有相互作用,也可以独立,后者更简单。效用函数的评比会代入其兴衰机制,每一次代入就要调整一次权值,那些得到正反馈(比如排名前50%)的神经元会“兴奋”,权值加大,反之得到负反馈(比如排名后50%)的神经元则会“衰败”,权值减小。

总之,权值,也就是各神经元的“兴奋度”,决定了神经元各自决策方式的演化在整体决策演化中所占的比例。

当神经元数足够多,演化机制的丰富度足够高,兴衰机制的丰富度足够高,效用函数足够复杂(可联立多个效用函数,好比人的七情六欲),则该系统可一定程度上模拟出生物智慧决策的复杂性。

该系统优于传统的穷举法主要是在于决策效率,能够提拔表现优秀的神经元,而抑制那些表现不佳者,就好比唯才是举替代了平均主义,优选代替了无脑。从数学和计算机的术语来说,穷举系统是线性系统,其演化可用一个线性方程组描述。现代随机学习系统是一个随机的非线性系统,其演化不仅具有随机性,也有非线性性(系统自反馈自适应),需要用一个随机微分方程组来描述。

其终究是人的智慧的简化,实现难点不在于数学构想,而在于计算机端的有效程序设计。该系统和人的智慧的一个核心区别,在于该系统对于效用不具备反馈性,需要人固定输入一个统一的效用函数,譬如输赢,生死,赚赔等。人的智慧则会自身调整效用函数,譬如随遇而安,能伸能屈,置之死地而后生等,会根据环境调整自身的效用函数。从数学上说,人的智慧对于当代的随机学习系统来说具有高得多的非线性性。

当然,从唯物主义观点来说,主要还是复杂性,人脑有多少个神经元?每个神经元里面有多少个具有基础逻辑的单元?逻辑单元间的相互作用有多复杂?人脑的模拟电信号本身的随机性就有多高?

这些因素,人类铺前用硅基计算机能够模拟多少?等到计算能力足够强了,一切归于大数定律或者中心极限定理而已,那个无穷大何时达到?那就不是科技问题,是哲学问题了。
......
基本上就是预测一流棋手的行为模式+蒙特卡洛搜索树
出现偏离的理由是,
预测正确率不是100%
若alphago棋力达到9段水平,可以把自己和自己对局的棋谱加入模仿范围

品天里炎 发表于 2016-3-11 05:19
......
基本上就是预测一流棋手的行为模式+蒙特卡洛搜索树
出现偏离的理由是,


所以alphago摸到9段是有趣的进展,
虽然不确定deepmind的人择方法是什么
看来第2盘那只AI棋力和古怪有个性的老9段差不多
品天里炎 发表于 2016-3-11 05:19
......
基本上就是预测一流棋手的行为模式+蒙特卡洛搜索树
出现偏离的理由是,


所以alphago摸到9段是有趣的进展,
虽然不确定deepmind的人择方法是什么
看来第2盘那只AI棋力和古怪有个性的老9段差不多
品天里炎 发表于 2016-3-11 05:22
所以alphago摸到9段是有趣的进展,
虽然不确定deepmind的人择方法是什么
看来第2盘那只AI棋力和古怪有 ...
......
不管deepmind是否认为alphago的模仿遍历能养出比现在棋手更强的AI,
反正那东西达不到完全解