您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 其它文档 > 第7章_模糊神经网络控制与自适应神经网络浙江大学韦巍
第7章模糊神经网络控制与自适应神经网络智能控制基础模糊神经网络控制7.2基于神经元网络的自适应控制7.3*自适应神经网络结构学习目录神经网络与模糊控制系统7.1.2模糊神经网络的学习算法7.1模糊神经网络控制模糊神经网络理论的出发点模糊控制系统的隶属度函数或控制规则的设计方法存在很大的主观性。利用神经网络的学习功能来优化模糊控制规则和相应的隶属度函数、将一些专家知识预先分布到神经网络中去是提出模糊神经网络理论的两个基本出发点。模糊神经网络结构图结构说明第一层节点为输入节点,用来表示语言变量;输出层的每个输出变量有两个语言节点,一个用于训练时期望输出信号的馈入,另一个表示模糊神经网络推理控制的输出信号节点;第二层和第四层的节点称为项节点,用来表示相应语言变量语言值的隶属度函数。第三层节点称为规则节点,用来实现模糊逻辑推理。其中第三、四层节点间的连接系数定义规则节点的结论部、第二、三层节点间的连接系数定义规则节点的条件部。第一层这一层的节点只是将输入变量值直接传送到下一层。所以,且输入变量与第一层节点之间的连接系数wji(1)=1。fuafjjjj()()()(),1111第二层实现语言值的隶属度函数变换,可选取钟型函数其中:mji和σji分别表示第i个输入语言变量Xi的第j个语言值隶属度函数的中心值和宽度。可抽象看作第一、二层神经元节点之间的连接系数wji(2)。fMmumaejXjjijiijijijfij()()()()()()()(,)()(),()2222222222第三层完成模糊逻辑推理条件部的匹配工作。由最大、最小推理规则可知,规则节点实现的功能是模糊“与”运算。fj(3)=min(u1(3),u2(3),...,up(3)),aj(3)=fj(3)且第二层节点与第三层节点之间的连接系数wji(3)=1第四层有两种模式从上到下的传输模式时,与第二层相同,实现模糊化的功能。从下到上的传输模式中,实现的是模糊逻辑推理运算。根据最大、最小推理规则,是模糊“或”运算:fj(4)=max(u1(4),u2(4),...,up(4)),aj(4)=fj(4)且第三、四层节点之间的连接系数wji(4)=1第五层有两种模式从上到下的信号传输方式,同第一层。从下到上是精确化计算,如果采用重心法,有则第四层节点与第五层节点之间的连接系数wji(5)可以看作是mji(5)·σji(5)。fwumuafujjiijijiiijjjiii()()()()()()()()()()(),5555555555神经网络与模糊控制系统7.1.2模糊神经网络的学习算法7.1模糊神经网络控制混合学习算法第一阶段,使用自组织学习方法进行各语言变量语言值隶属度函数的初步定位以及尽量发掘模糊控制规则的存在性(即可以通过自组织学习删除部分不可能出现的规则)在第二阶段,利用有导学习方法来改进和优化期望输出的各语言值隶属度函数。自组织学习阶段问题描述:给定一组输入样本数据xi(t),i=1,2,...,n、期望的输出值yi(t),i=1,2,...,m、模糊分区|T(x)|和|T(y)|以及期望的隶属度函数类型(即三角型、钟型等)。学习的目的是找到隶属度函数的参数和系统实际存在的模糊逻辑控制规则。隶属度函数参数的获取中心值mi的估计:Kohonen自组织映射法宽度值σi是与重叠参数r以及中心点mi邻域内分布函数值相关。自组织映射法一种自组织学习。经过一段时间的学习后,其权值的分布可以近似地看作输入随机样本的概率密度分布。学习过程是一个Winner-take-all的过程,具体如下:)()(min)()(1tmtxtmtxikiclosestmcloest(t+1)=mcloest(t)+α(t)[x(t)-mcloest(t)]mi(t+1)=mi(t)当mi(t)≠mcloest(t)k=|T(x)|表示语言变量x语言值的数目宽度σi的计算通过求下列目标函数的极小值来获取,即:其中r为重叠参数。也可以采用一阶最近邻域法近似:221][21rmmENiNjijinearestiicloestmmr推理规则的确定即确定第三层规则节点和第四层输出语言值节点之间的连接关系。采用竞争学习获得记o(3)i(t)为规则节点的激励强度、o(4)i(t)为第四层输出语言值节点输出,则wtowtoijjiji()(())()()43规则删除仅保留规则节点与同一输出语言变量的所有语言值节点的连接系数最大的那个连接关系,将其余的连接关系删除。当某一规则节点与某一输出语言变量所有语言值节点之间的连接系数都非常小时,则所有的连接关系都可以删除。如果某一规则节点与第四层中的所有节点的连接系数都很少而被删除的话,则该规则节点对输出节点不产生任何影响。因此,该规则节点可以删除。规则合并合并的条件该组节点具有完全相同的结论部(如图7-2中输出变量yi中的第二个语言值节点);在该组规则节点中某些条件部是相同的(如图7-2中输入变量x0中的第一个语言值节点的输出与该组规则节点全部相连);该组规则节点的其它条件输入项包含了所有其它输入语言变量某一语言值节点的输出。图7-2:规则节点合并示例有导师学习阶段可采用BP学习min))t(yˆ)t(y(21E2)wE()t(w)1t(wEwEnetnetwEffwEffaaw()()第五层反向传播到上一层的广义误差δ(5)为iijiijijijjjjjiuutytymffaaEmE)5()5()5()5()5()5()5()5()5()5()](ˆ)([2)5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()()()()](ˆ)([iijiiiijijiiijiijijijjjjjiuuumuumtytyffaaEE)(ˆ)()5()5()5()5()5(tytyfaaEfEjjjjj第四层没有任何参数进行更新。唯一需要做的是实现误差的反向传播计算。2)5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()5()4()5()5()5()5()4()5()5()4()4()()()())(ˆ)((iijiijjijijiiijijjjjiijiiijijijjjjjjjjjjjjuumumtytyuumufEfuuffEfffEfE第三层与第四层相似如果输出语言变量有m个,则)4()3()4()4()3()4()4()3()3()3()3()3(jijjjjjjjjjjufaffEfaaEfEmkkj1)4()3(第二层qk(3)=δk(3)当aj(2)是第k个规则节点输入值中的最小值时;qk(3)=0其它情况下。2)2()2()2()2()2()2()2()2()2()2()()(2)2(jijiifjjijjjjjimueaEmffaaEmEj)2()3()3()2()3()3()2(jkkkjkkkjafaffEaEotherwiseuuufifufafjkjkjk0,..),min(1)3(2)3(1)3()3()3()3()2()3(kkjqaE)3()2(第二层学习公式mtmtEaeumjijijfijijij()()()()()()()()()()()2222222122jijijfijijittEaeumj()()()()()()()()()()()22222223122整个学习流程训练样本数据自组织分类法得出输入、输出语言变量各语言值隶属度函数的中心值和宽度值竞争学习得出模糊推理规则规则节点的删除规则节点的合并口利用有导学习得出最佳的隶属度函数模糊神经网络控制7.2基于神经元网络的自适应控制7.3*自适应神经网络结构学习目录基于神经元网络的自适应控制神经网络控制器完全满足自适应控制的要素在线、实时地了解对象;有一个可调节环节;能使系统性能达到指标要求和最优。常规的神经网络控制器本身也具有一定的自适应能力。设计思想与传统的自适应控制器一样,有两种不同的设计途径:控制•通过系统辨识获取对象的数学模型,再根据一定的设计指标进行设计;直接控制•根据对象的输出误差直接调节控制器内部参数来达到自适应控制的目的。神经网络的模型参考自适应控制7.2.2神经网络的自校正控制7.2基于神经元网络的自适应控制模型参考自适应控制通过选择一个适当的参考模型和由稳定性理论设计的自适应算法,并利用参考模型的输出与实际系统输出之间的误差信号,由一套自适应算法计算出当前的控制量去控制系统达到自适应控制的目的。在实时性方面都没有重大进展。控制策略如果被控系统y(k+1)=f(y(k),y(k-1),u(k-1))+g(u(k))参考系统:ym(k+1)=a1ym(k)+a2ym(k-1)+r(k)则控制输入可取:)}1()]1(),1(),([{ˆ)(1kykukykyfgkum基于神经网络的模型参考自适应控制结构reimpyypyZ-1TDLTDLTDLTDL+-+-eiecu神经网络N神经网络Nci被控对象ec图3-3-1基于神经网络的模型参考自适应控制结构图参考模型例7-1非线性控制对象为参考
本文标题:第7章_模糊神经网络控制与自适应神经网络浙江大学韦巍
链接地址:https://www.777doc.com/doc-2111602 .html