您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 管理学资料 > 有监督和BP神经网络(1)
●神经元网络的简化模型niiitxwfty1)()(yx1x2xnw1w2wn···线性系统非线性函数ai1ai2ainbi1bi2bimwiy1y2ynu1ukum1vixiyimkikikinjijiwtubtyatv11)()()(●神经元网络的一般模型框架1)加法器2)线性动态系统(SISO)3)静态非线性系统︰︰式中aij和bik为权系数,i,j=1,2,…,n,k=1,2,…m.n个加法器可以写成向量形式:wtButAytv)()()(wuByAv——N维列向量——N维列向量(单元输出)——N×N维矩阵——N×M维矩阵——M维列向量(外部输入)——M维常向量▲线性动态系统)()()(svsHsxii传递函数形式:')'()'(dttvtthxili按时域形式:典型的有:TteTthsTsH/1)(,11)(▲静态非线性系统典型的有:g(x)g(x)g(x)xxx阈值函数阈值函数Sigmoid函数∑∑(双极型)Sigmoidu1uiiu1uiiyiyiAdline(自适应线性网)单层感知器(Perceptron)▲不同的部件可以组成不同的网络︰︰Kuiyjyi离散Hopfield网y1y2y3y4u1u2u3u4yjyiuiiiaTsa12xi连续的Hopfield网●按学习的方法神经元网络可分成二类:1)有监督的学习网络:感知器误差反传网络(BP)小脑模型连接控制器(CMAC)模块(组合)网络增强学习网络●有监督的神经网络1)感知器网络感知器是前馈(正向传输)网络,所有节点都是线性的.●●●●●●●●●●●●x1x2xnb1b2bm权向量W2)无监督学习网络竞争学习和Kohonen网络Hopfield网络双向联想存贮器(BAM)Boltzman机bXWbXXXWTT1)(kkkkkTkkkkXWXXWbWW)(1或)(kTkkkXWb0k输入与输出的关系:权矩阵可以按下式求解:学习规则:代表输入与输出的差别。是学习因子这学习规则即是著名的学习规则。随着学习迭代次数k的增加,保证网络的收敛。●反传(BP)网络误差反传(学习算法)(BP)网络与感知器的主要差别在于:(BP)网络的节点是非线性的。采用广义学习规则。●反传(BP)网络的结构图一个输入层,一个输出层,多个隐层。jpp1xp1xpntpktpmOp1OpnOp2隐层wj1wjn输入层隐层输出层信息流hjpShpjO······pmipihjihpjxwS)(hpjhjhpjSfOjhpjokjopkOwS)(opkokopkSfO隐层节点j输出和输入节点p的关系:输出节点k和隐层输出节点p的关系:)(opkpkpkOt学习过程:定义输出误差pkpjopjhjihkjkpjopkokjokjxtwtwOtwtw)()1()()1(kopkpkmkpkpOtE212)(2121学习的目的是要使以下定义的误差平方和最小:因此,要求以下的偏导,okjopkokjpwSwE最后得到二个权值改变的重要公式:初始化加输入和期望输出计算隐层和输出层的输出迭代次数加1调节输出层和隐层的连接权值pjopjhjihkjkpjopkokjokjxtwtwOtwtw)()1()()1(改变训练样板训练样终止?迭代终止?BP算法的基本流程NoNoyy重要结论具有至少一个隐层的多层前馈网络,如果隐层单元足够多,那么,利用扁平激励函数和线性多项式集成函数,可以对任意感兴趣的函数逼成到任意精度。扁平激励函数定义:f:R[0,1]或[-1,1]是非减函数,是。或1-1)(lim,1)(limff扁平激励函数的参数.理论证明:多层前馈网络是一种通用逼近器讨论1)隐层的数目和节点的数目,何谓合适?2)是否收敛到全局最优?(涉及多维误差曲面的不确定性)3)收敛的速度问题。(涉及隐层节点输出的相互耦合和梯度下降法本身的缺点)
本文标题:有监督和BP神经网络(1)
链接地址:https://www.777doc.com/doc-1428844 .html