您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 项目/工程管理 > BP人工神经网络的基本原理模型与实例
第8章人工神经网络方法2016年4月27日本讲大纲:人工神经网络的基本概念误差反向传播(BP)神经网络8.1人工神经网络的基本概念从数学和物理方法以及信息处理的角度,对人脑神经网络进行抽象,并建立某种简化模型,称为人工神经网络。应用领域:模式识别系统辨识预测预估数据挖掘经济学……8.1人工神经网络的基本概念人工神经网络在本质上是由许多小的非线性函数组成的大的非线性函数,反映的是输入变量到输出变量间的复杂映射关系。先给出单个人工神经网络的一般模型描述:8.1人工神经网络的基本概念先来看一个单一输入的神经元模型输入变量:x1连接权重:w1激活函数:f(·)净输入:w1x1输出:fw1x1w1x1f(·)y=fw1x1w1x18.1人工神经网络的基本概念神经元模型的传递函数f(·)一般采用sigmoid函数或双曲函数,给出表达式如下:或当神经元的加权输入和wixi𝑚i=1大于激发阈值θ时,神经元处于激发态,网络的输出fwixi𝑚i=1−θ为正,否则为抑制态,输出为负。f(x)=11+e−xf(x)=1−e−x1+e−x8.1人工神经网络的基本概念单极sigmoid函数f(x)=11+e−x8.1人工神经网络的基本概念双曲函数f(x)=1−e−x1+e−x8.1人工神经网络的基本概念增加激活阈值后的神经元模型输入变量:x1连接权重:w1激活函数:f(·)激活阈值:θ净输入:w1x1-θ输出:fw1x1−θw1x1f(·)y=fw1x1−θw1x1-θθ-1小练习:请你算一算,当初始输入、权重和激活阈值为如下数值时,该神经元的净输入和输出分别是多少?x1w1θ10.20.48.1人工神经网络的基本概念当输入增加时的神经元模型输入变量:x1,x2连接权重:w1,w2激活函数:f(·)激活阈值:θ净输入:w1x1+w2x2-θ输出:fw1x1+w2x2−θw1x1f(·)y=fw1x1+w2x2−θw1x1+w2x2-θθ-1w2x2小练习:请你算一算,当初始输入、权重和激活阈值为如下数值时,该神经元的净输入和输出分别是多少?x1x2w1w2θ100.20.40.48.1人工神经网络的基本概念给定n个输入变量:x1,x2,······,xn以及相对应的权值变量w1,w2,······,wn,一个传递函数f(·),激发阈值变量θ,输出变量为y,有如下神经元模型:w1w2wmxmx2x1............f(·)y=fwixi𝑚i=1−θwixi𝑚i=1−θθ-1其中x1~xm这m个变量是与此神经元连接的上一层神经元的输出,或者为网络的原始输入变量。在实际操作中,可以将-1看作此神经元的第m+1个输入,把激发阈值变量θ作为相应的权值变量。8.1人工神经网络的基本概念当多个神经元组合起来时,人工神经网络的总体结构如下:输入层隐藏层-1-1-1∑f∑f........................xmx2x1........................y1y2yn∑f∑f∑f∑f∑f∑f∑f-1输出层............8.1人工神经网络的基本概念当层数增加时的神经元模型输入变量:x1,x2连接权重:w1,w2激活函数:f(·)激活阈值:θ净输入:w1x1+w2x2-θ输出:fw1x1+w2x2−θw1x1f(·)y=fw1x1+w2x2−θw1x1+w2x2-θθ-1w2x2小练习:请你算一算,当初始输入、权重和激活阈值为如下数值时,该神经元的净输入和输出分别是多少?x1x2w1w2θ100.20.40.48.1人工神经网络的基本概念x1x2x3w14w15w24w25w34w35w46w56θ4θ5θ61010.2-0.30.40.1-0.50.2-0.3-0.20.4-0.2-0.1123456x1x3x2w14w15w24w25w34w35w46w56θ4θ5θ6初始输入、权重和偏倚值小练习:请你算一算,各节点的净输入和净输出分别是多少?8.1人工神经网络的基本概念单元j净输入Ij净输出Oj123456x1x3x2w14w15w24w25w34w35w46w56θ4θ5θ6净输入和输出的计算-0.70.10.3320.525-0.1050.47440.2+0-0.5-0.4=-0.75-0.3+0+0.2+0.2=0.16-(0.3)(0.332)-(0.2)(0.525)+0.1=-0.1051/(1+e0.7)=0.3321/(1+e-0.1)=0.5251/(1+e0.105)=0.4748.1人工神经网络的基本概念思考:如果想要让神经网络的期望输出尽可能接近“1”这个数值,请问应该调整网络的哪些参数?8.1人工神经网络的基本概念123456x1x3x2w14w15w24w25w34w35w46w56θ4θ5θ6x1x2x3w14w15w24w25w34w35w46w56θ4θ5θ61010.192-0.3060.40.1-0.5080.194-0.261-0.1380.408-0.194-0.218初始输入、权重和偏倚值小练习:若将各权值与阈值换成以上各值,各节点的净输入和净输出分别是多少?8.1人工神经网络的基本概念单元j净输入Ij净输出Oj123456x1x3x2w14w15w24w25w34w35w46w56θ4θ5θ6净输入和输出的计算-0.5220.0820.62760.4795-0.18420.545940.192+0-0.306-0.408=-0.5225-0.306+0+0.194+0.194=0.0826-(0.3)(0.6276)-(0.2)(0.4795)+0.1=-0.18421/(1+e-0.522)=0.62761/(1+e-0.1)=0.47951/(1+e-0.1842)=0.5459与0.474相比更接近“1”了8.1人工神经网络的基本概念神经网络运算的难点之一:如何高效地确定各个连接权值W与激活阈值θ自动确定权值与阈值的过程称为神经网络学习(训练)。8.1人工神经网络的基本概念神经网络的学习方式:监督学习非监督学习激励学习8.2误差反向传播(BP)神经网络反向传播算法分二步进行,即正向传播和反向传播。1.正向传播输入的样本从输入层经过隐单元一层一层进行处理,通过所有的隐层之后,则传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比较,如果现行输出不等于期望输出,则进入反向传播过程。2.反向传播反向传播时,把误差信号按原来正向传播的通路反向传回,并对每个隐层的各个神经元的权系数进行修改,以望误差信号趋向最小。8.2误差反向传播(BP)神经网络BP算法实质是求取误差函数的最小值问题。这种算法采用非线性规划中的最速下降方法,按误差函数的负梯度方向修改权系数。计算方法如下,设当前单元为j:Errj=Oj(1-Oj)(Tj-Oj)(若j为输出层节点)Errj为节点j从输出端误差(Tj-Oj)反向传播而来的的输入端误差,其中Oj为神经元j的净输出,Oj(1-Oj)为f(x)=1/(1+e^(-x))的导函数,Tj为单元j的期望输出。Errj=Oj(1-Oj)𝐸𝑟𝑟𝑘𝑘𝑤𝑗𝑘(若j为隐藏层节点)𝐸𝑟𝑟𝑘𝑘𝑤𝑗𝑘为下一层所有与j相连的节点的输入端误差与连接权值的加权和,其中wjk是单元j到它的下一个层中单元k的连接权重,Errk是单元k的输入端误差。△wij=ηErrjOiη为学习步长,计算连接权值改变量△wij的方式可概括为“两头抓”,即上一层单元i的输出Oi与单元j的输入端误差Errj相乘,再乘以学习步长量。wij=wij+△wij8.2误差反向传播(BP)神经网络单元j计算误差Errj123456x1x3x2w14w15w24w25w34w35w46w56θ4θ5θ6每个节点输入端误差Errj的计算Err4=-0.0087Err5=-0.00650.3320.525Err6=0.13111-0.4744[0.332•(1-0.332)]•(0.1311)•(-0.3)5[0.525•(1-0.525)]•(0.1311)•(-0.2)6[0.474•(1-0.474)]•(1-0.474)-0.0087-0.00650.13110.1311•w460.1311•w568.2误差反向传播(BP)神经网络权重或偏差新值w46-0.3+(0.9)(0.1311)(0.332)=-0.261w56-0.2+(0.9)(0.1311)(0.525)=-0.138w140.2+(0.9)(-0.0087)(1)=0.192w15-0.3+(0.9)(-0.0065)(1)=-0.306w240.4+(0.9)(-0.0087)(0)=0.4w250.1+(0.9)(-0.0065)(0)=0.1w34-0.5+(0.9)(-0.0087)(1)=-0.508w350.2+(0.9)(-0.0065)(1)=0.194θ6-0.1+(0.9)(0.1311)(-1)=-0.218θ5-0.2+(0.9)(-0.0065)(-1)=-0.194θ40.4+(0.9)(-0.0087)(-1)=0.408权重和偏倚更新的计算参考资料1.(美)韩家炜,(美)坎伯(Kamber,M.),等.数据挖掘:概念与技术,第3版[M].机械工业出版社,2012.2.张兴会.数据仓库与数据挖掘技术[M].清华大学出版社,2011.
本文标题:BP人工神经网络的基本原理模型与实例
链接地址:https://www.777doc.com/doc-2900906 .html