您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 公司方案 > 第六讲自组织竞争网络
人工神经网络及其应用第6讲自组织网络张浩然浙江师范大学信息学院2005年3月2019/9/102一、自组织神经网络二、自组织竞争网络三、科荷伦网络四、自适应共振网络五、内容小结六、考试事宜内容安排2019/9/1031.1自组织网络特点1.2网络类型1.3网络学习规则一、自组织神经网络2019/9/1041.1自组织网络特点特点–自组织神经网络可以自动向环境学习,不需要教师指导;而前面所讲到的前向网络、反馈网络均需要教师指导学习–与BP网络相比,这种自组织自适应的学习能力进一步拓宽了人工神经网络在模式识别、分类方面的应用思想基础–生物的神经网络中,如人的视网膜中,存在着一种“侧抑制”现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制–借鉴上述思想,自组织网络能够对输入模式进行自组织训练和判断,并将输入模式分为不同的类型2019/9/1051.2网络类型需要训练–自组织竞争网络•适用与具有典型聚类特性的大量数据的辨识–Kohunen网络•训练学习后使网络权值分布与输入样本概率密度分布相似•可以作为样本特征检测仪,在样本排序、样本分类及样本检测方面有广泛应用–对传网络(CounterPropagationNetwork)•在功能上用作统计最优化和概率密度函数分析•可用于图像处理和统计分析–神经认知机等不需要训练–自适应共振理论(ART)•分类的类型数目可自适应增加2019/9/1061.3网络学习规则格劳斯贝格(S.Grossberg)提出了两种类型的神经元模型:内星与外星,用以来解释人类及动物的学习现象–内星可以被训练来识别矢量–外星可以被训练来产生矢量基本学习规则–内星学习规则–外星学习规则–科荷伦学习规则2019/9/1071.3.1内星与外星外星通过联接权矢量向外输出一组信号A内星通过联接权矢量W接受一组输入信号P2019/9/1081.3.2内星学习规则可以通过内星及其学习规则可训练某一神经元节点只响应特定的输入矢量P,它借助于调节网络权矢量W近似于输入矢量P来实现的单内星中对权值修正的格劳斯贝格内星学习规则为内星神经元联接强度的变化Δw1j与输出成正比的。–如果内星输出a被某一外部方式而维护高值时,通过不断反复地学习,趋使Δw1j逐渐减少,直至最终达到w1j=pj,从而使内星权矢量学习了输入矢量P,达到了用内星来识别一个矢量的目的–另一方面,如果内星输出保持为低值时,网络权矢量被学习的可能性较小,甚至不能被学习2019/9/1091.3.3外星学习规则外星网络的激活函数是线性函数。它被用来学习回忆一个矢量,其网络输入P也可以是另一个神经元模型的输出外星被训练来在一层s个线性神经元的输出端产生一个特别的矢量A对于一个外星,其学习规则为与内星不同,外星联接强度的变化Δw是与输入矢量P成正比的–当输入矢量被保持高值,比如接近1时,每个权值wij将趋于输出ai值,若pj=1,则外星使权值产生输出矢量–当输入矢量pj为0时,网络权值得不到任何学习与修正2019/9/10101.3.3外星学习规则当有r个外星相并联,每个外星与s个线性神经元相连组成一层外星时,其权值修正方式为–W=s×r权值列矢量–lr=学习速率–A=s×q外星输出–P=r×q外星输入2019/9/10111.3.4科荷伦学习规则科荷伦学习规则是由内星规则发展而来的科荷伦规则科荷伦学习规则实际上是内星学习规则的一个特例,但它比采用内星规则进行网络设计要节省更多的学习,因而常常用来替代内星学习规则2019/9/1012二、自组织网络2.1网络模型2.2竞争网络原理2.3网络训练2019/9/10132.1网络模型网络结构–竞争网络由单层神经元网络组成,其输入节点与输出节点之间为全互联结。–因为网络在学习中的竞争特性也表现在输出层上,所以在竞争网络中把输出层又称为竞争层,而与输入节点相连的权值及其输入合称为输入层2019/9/10142.1网络模型网络权值的类型–输入节点j到i的权值wij(i=1,2…、s;j=1,2…、r),这些权值是通过训练可以被调整的–竞争层中互相抑制的权值wik(k=1,2…、s)。这类权值固定不变,且满足一定的分布关系•是一种对称权值,即有wik=wki•相同神经元之间的权值起加强的作用,即满足w11=w11=…=wkk>0,而不同神经元之间的权值相互抑制,对于k≠i有wij<02019/9/10152.1网络模型网络工作方式–输入矢量经过网络前向传递–网络竞争•激活函数为硬限制二值函数•竞争网络的激活函数使加权输入和为最大的节点赢得输出为1,而其他神经元的输出皆为0(?)–权值调整(可以处于训练与工作期间)•竞争网络在经过竞争而求得获胜节点后,则对与获胜节点相连的权值进行调整•调整权值的目的是为了使权值与其输入矢量之间的差别越来越小,从而使训练后的竞争网络的权值能够代表对应输入矢量的特征2019/9/10162.2竞争网络原理竞争网络解释–设网络的输入矢量为:P=[p1p2…pr]T–对应网络的输出矢量为:A=[a1a2…as]T–由于竞争网络中含有两种权值,所以其激活函数的加权输入和也分为两部分:来自输入节点的加权输入和N与来自竞争层内互相抑制的加权输入和G。对于第i个神经元有•来自输入节点的加权输入和为•来自竞争层内互相抑制的加权输入和为2019/9/10172.2竞争网络原理对于第i个输出神经元–假设竞争获胜,则有•从而–如果竞争后第i个节点“输”了,而“赢”的节点为l,则有2019/9/10182.2竞争网络原理所以对整个网络的加权输入总和有下式成立–sl=nl+wll对于“赢”的节点l–si=ni-|wii|对于所有”输“的节点i=1,2…s,i≠l由此可以看出,经过竞争后只有获胜的那个节点的加权输入总和为最大竞争网络的输出为因此判断竞争网络节点胜负的结果时,可直接采用ni2019/9/10192.3网络训练竞争网络修正权值的公式为–式中lr为学习速率,且0<lr<1,一般的取值范围为0.01-0.3;pj为经过归一化处理后的输入层中每个最接近输入矢量的神经元,通过每次权值调整而使权值矢量逐渐趋于这些输入矢量。从而竞争网络通过学习而识别了在网络输入端所出现的矢量,并将其分为某一类2019/9/10202.3网络训练举例–考虑当不同的输入矢量p1和p2分别出现在同一内星时的情况–为了训练的需要,必须将每一输入矢量都进行单位归一化处理–当第一个矢量p1输入给内星后,网络经过训练,最终达到W=(p1)T。–给内星输入另一个输入矢量p2,此时内星的加权输入和为新矢量p2与已学习过矢量p1的点积–输入矢量的模已被单位化为1,所以内星的加权输入和等于输入矢量p1和p2之间夹角的余弦2019/9/10212.3网络训练根据不同的情况,内星的加权输入和可分为如下几种情况–p2等于p1,即有θ12=0,此时,内星加权输入和为1–p2不等于p1,内星加权输入和为1–p2=-p1,即θ12=180°时,内星加权输入和达到最小值-1训练结果–当多个相似输入矢量输入内星,网络的权矢量趋向于相似输入矢量的平均值–对于一个已训练过的内星网络,当输入端再次出现该学习过的输入矢量时,内星产生1的加权输入和–而与学习过的矢量不相同的输入出现时,所产生的加权输入和总是小于12019/9/10222.3网络训练竞争网络的学习和训练过程,实际上是对输入矢量的划分聚类过程,使得获胜节点与输入矢量之间的权矢量代表获胜输入矢量竞争网络的输入层节点r由已知输入矢量决定的。但竞争层的神经元数s由设计者确定,一般情况下,可根据输入矢量的维数及估计,再适当地增加些数目来确定。2019/9/10232.4局限性竞争网络比较适合用于具有大批相似数组的分类问题竞争学习网络的局限性–竞争网络适用于当具有典型聚类特性的大量数据的辨识–当遇到大量的具有概率分布的输入矢量时,竞争网络就无能为力了,这时可采用科荷伦网络来解决此类问题2019/9/1024三、科荷伦网络3.1设计思想3.2网络模型3.3网络训练2019/9/10253.1设计动机神经细胞模型中还存在着一种细胞聚类的功能柱。一个功能柱中的细胞完成同一种功能。它由多个细胞聚合而成的,在接受外界刺激后,它们会自动形成功能柱当外界输入不同的样本到科荷伦自组织映射网络中,一开始时输入样本引起输出兴奋的位置各不相同,但通过网络自组织后会形成一些输出群,它们分别代表了输入样本的分布,反映了输入样本的图形分布特征,所以科荷伦网络常常被称为特性图通常科荷伦网络的权矢量收敛到所代表的输入矢量的平均值,反映输入数据的统计特性2019/9/10263.2网络模型科荷伦网络结构也是两层:输入层和竞争层竞争层可以由一维或二维网络矩阵方式组成,且权值修正的策略也不同–一维网络结构与基本竞争学习网络相同–二维网络结构2019/9/10273.3网络训练神经元领域概念权值调整范围–逐层递减2019/9/1028四、ART神经网络4.1网络简介4.2网络结构4.3工作过程2019/9/10294.1网络简介传统神经网络遇到的问题–在样本数据训练的过程中,无论是监督式还是无监督式的训练,均会出现对新模式的学习,时刻面临着新知识的学习记忆荷对旧知识的退化忘却的问题•在监督式的训练情况下,使网络逐渐达到稳定的记忆需要通过反复训练,从而对已学习过的模式的部分甚至是全部的忘却•在无监督情况下,对新的数据的学习同样会产生对某种已经记忆的典型矢量的修改,造成对已学习数据的部分忘却理想情况–能够学会新的知识,同时对已学过的知识没有不利影响–在输入矢量特别大的情况下,很难实现。通常只能在新旧知识的取舍上进行某种折衷,最大可能地接受新的知识并较少地影响原有知识2019/9/10304.1网络简介自适应共振理论(AdaptiveResonanceTheory,ART)网络可以较好地解决前述问题–网络和算法具有较大地灵活性,以适应新输入的模式,同时极力避免对网络先前学习过地模式的修改–记忆容量可以随样本的增加而自动增加,可以在不破坏原记忆样本的情况下学习新的样本ART是美国波士顿大学的A.Carpenter和Grossberg提出。具有两种形式–ART1处理双极性(或二进制)数据–ART2处理连续数据2019/9/10314.2ART1网络结构ART1由两层神经元以及一些控制信号相互结合而成2019/9/10324.2网络结构从输入矢量到输出矢量的作用部分被称为识别层或R层(R-Recognition)从输出A作为输入返回到输入的层称为比较层或C层(C-Comparison)从结构上讲–R层为一个竞争网络,具有s个节点,它代表了对输入模式的分类。该节点数能够动态地增长,以满足设立新模式地需要。–C层为一个Grossberg网络2019/9/10334.3运行过程将网络的训练与工作与工作过程有机技结合在一起–自C层流向R层的识别阶段:输入新的矢量P,通过竞争得出输出A–自R层流向C层的比较阶段•按照一定地规则来确定这个新输入是否属于网络衷已经记忆地模式类别,判别标准为新输入模式与所有已记忆模式之间相似程度•R=F(WP+B)•如果R0,按照科荷伦学习规则修改竞争层权值以使该类权值更加接近于新输入模式•如果R=0,在网络中设立一个新模式,用以代表和记忆新模式,并将其归结为已有的代表类别,成为R层的一个新的输出节点,作为以后可能输入的代表模式–权值修正阶段•当外界输入P与所激活的外星权矢量充分相似时,网络发生共振,本次学习与训练结束•否则,进行特别的处理,直到共振现象发生时对本次输入的训练过程才最终结束2019/9/1034五、内容小结本次课程简单介绍自组织神经网络的特点以及与其它类型神经网络的区别介绍了自组织神经网络的三种学习规则;四种神经网络类型对自组织竞争网络、科荷伦网络和ART网络的原理、网络结构和训练与工作方式进行了介绍ART网络相对其它自组
本文标题:第六讲自组织竞争网络
链接地址:https://www.777doc.com/doc-861508 .html