文档详情

自组织竞争神经网络.pptx

发布:2025-04-29约1.3万字共10页下载文档
文本预览下载声明

第五章自组织竞争神经网络述自组织特征映射网络自适应共振理论模型神经认知机第五章自组织竞争神经网络

在实际的神经网络中,存在一种侧抑制的现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制这种侧抑制在脊髓和海马中存在,在人眼的视网膜中也存在。另外,在认知过程中除了从教师那儿得到知识外,还有一种不需要教师指导的学习,这种直接依靠外界刺激,“无师自通”达到的功能有时也称为自学习、自组织的学习方法。自组织竞争人工神经网络就是基于上述两种生物结构和现象的基础上生成的,它的权是经过Hebb规则或类似Hebb规则学习后得到的。010203概述组织映射学习算法自组织映射网络的工作原理网络的应用实例网络拓扑结构及工作过程自组织特征映射网络

芬兰学者Kohonen认为一个神经网络接受外界输入模式时,将会分成不同的区域,各区域对输入模式将会有不同的响应特性,最临近的神经元互相激励,而较远的神经元之间相互抑制,而更远的神经元之间又有较弱的激励作用。在受到外界刺激时,刺激最强的地方形成一个Bubble(墨西哥帽),在此Bubble区中,神经元权向量会自动调节,直到与输入向量的某一最大分量方向相重合为止。

图5.1神经元的作用分布曲线图5.2网络结构

图5.3Nj(t)的形状变化情况网络拓扑结构及工作过程

对于任意一个输入节点i和输出节点j有:i?{1,2,..,n},j?{1,2,..,n}且:

自组织映射学习算法①连接权值的初始化。t=0:0Wij1,i?{1,2,…,n},j?{1,2,…,m}②对网络输入一个样本模式。XK=(X1,X2,…,Xn)③计算与全部输出节点间的权值向量的距离 j?{1,2,…,m}(5.2.2)④选择有最小距离的节点为竞争获胜节点 j?{1,2,…,m}

(5.2.3)其中,0?(t)1,衰减函数,随着时间t而递减;?(Nj,Nj*)限界函数,随着Nj*距离递减。⑤调整权值i?{1,2,..,n},j?{1,2,…,m} (5.2.4)或者完成指定的学习次数后算法结束,否则转②。⑥若还有输入样本则转②,当所有的样本输入完,且满足:

?(t)和Nj*有一般化数学方法,凭经验选取。初始时,Nj*选取较大,后逐渐变小,?(t)开始时较大,后逐渐变为0。从自组织映射网络算法来看,该网络有以下特点:网络中的权值是输入样本的记忆。如果输出节点j与输入层n个节点的连接权值向量用Wj表示,对应某一类样本XK输入,使j节点达到的匹配最大,那么Wj通过学习以后十分靠近XK,因此以后当XK再次输入时,j节点必定兴奋,j节点是样本的XK代表。

网络学习时对权值的调整,不只是对兴奋的节点所对应的权值进行调整,而对其周围区域Nj内的节点同时进行调整,因此对于在Nj内的节点可以代表不只是一个样本XK,而是与XK比较相近的样本都可以在Nj内得到反映,因此这种网络对于样本的畸变和噪声的容限大。网络学习结果使比较相近的输入样本在输出二维平面上位置也比较接近。可实现在线学习,已修改的权值将保留。010302

01自适应共振理论(ART)03ART1网络学习算法的改进05ART神经网络在人像识别中的应用02ART1神经网络04ART2神经网络自适应共振理论模型

自适应共振理论(ART)自适应共振理论(AdaptiveResonanceTheory,简称)是由美国Boston大学S.Grossberg和A.Carpenter提出的。这一理论包括ART1和ART2两种模型,可以对任意多和任意复杂的二维模式进行自组织、自稳定和大规模并行处理。前者用于二进制输入,后者用于连续信号输入。如图5.8所示,它由两个相继连接的存储单元STM-F1和STM-F2组成,分成注意子系统和取向子系统。F1和F2之间的连接通路为自适应长期记忆(LTM)。

图5.8ART原理图

可完成实时学习,且可适应非平稳的环境;对已学习过的对象具有稳定的快速识别能力,同时又能迅速适应学习的新对象;具有自归一能力,根据某些特征在全体中所占的比例,有时作为关键特征,有时又被当作噪声处理;不需要事先已知样本结果,可非监督学习;容量不受输入通道数的限制,存储对象也不要求是正交的;此系统可以完全避免陷入局部极小点的问题。010302040506ART的主要优点:

ART1神

显示全部
相似文档