您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 经营企划 > _人工神经网络习题解答
1第九章人工神经网络9.1答:(1)误差纠正学习;wkj=ek(n)xj(n);yk(n)为输入xk(n)时,神经元k在n时刻的实际输出,dk(n)表示应有的输出(可由训练样本给出);其中η为学习步长,这就是通常所说的误差纠正学习规则(或称delta学习规则)。(2)Hebb学习;wkj(n)=F(yk(n),xj(n));当某一突触(连接)两端的神经元同步激活(同为激活或同为抑制)时,该连接的强度应为增强,反之应减弱;由于Δwkj与yk(n),xj(n)的相关成比例,有时称为相关学习规则。(3)竞争(Competitive)学习;若神经元j竞争获胜若神经元j竞争失败;在竞争学习时,网络各输出单元互相竞争,最后达到只有一个最强者激活,最常见的一种情况是输出神经元之间有侧向抑制性连接,这样原来输出单元中如有某一单元较强,则它将获胜并抑制其它单元,最后只有此强者处于激活状态。9.2答:略9.3答:B-P算法的学习过程如下:(1)选择一组训练样例,每一个样例由输入信息和期望的输出结果两部分组成。(2)从训练样例集中取一样例,把输入信息输入到网络中。(3)分别计算经神经元处理后的各层节点的输出。(4)计算网络的实际输出和期望输出的误差。(5)从输出层反向计算到第一个隐层,并按照某种能使误差向减小方向发展的原则,调整网络中各神经元的连接权值。(6)对训练样例集中的每一个样例重复(3)—(5)的步骤,直到对整个训练样例集的误差达到要求时为止。,0,jiijiwxw2文件头:#includestdio.h#includestdlib.h#includemath.h#includeUTLab.h//BP神经网络#definen17//输入节点数#definen211//中间层节点个数#definen35//输出节点数#definem400//学习次数voidinitialization(){}floatbpnet(floattension,floatinthick,floatoutthick,floatmeng,floattan,floatping,floattu){floatin1[n1];floatout1[n2];floatout2[n3];floatw1[n2][n1];floatw2[n3][n2];floata1[n2];floata2[n3];floatt[n3];floatdf1[n2];floatdf2[n3];floats2[n3];floats1[n2];floatw[n2][n3];floatz[n2][n3];floata=0.5;inti=0;intj=0;intk=0;intn=0;in1[1]=tension;in1[2]=inthick;in1[3]=outthick;in1[4]=meng;in1[5]=tan;in1[6]=ping;in1[7]=tu;initialization();for(n=1;n=m;k++){for(i=1;i=n2;i++){for(j=1;j=n1;j++){a1[j]=a1[j]+w1[i][j]*in1[j];3out1[j]=sigmoid(a1[j]);}}for(i=1;i=n3;i++){for(j=1;j=n2;j++){a2[j]=a2[j]+w2[i][j]文件尾:*in1[j];out2[j]=a2[j];}}for(i=1;i=n3;i++){//计算敏感度,更新权值df2[i]=1;s2[i]=-2*(t[i]-out2[i]);for(j=1;j=n2;j++){w2[i][j]=w2[i][j]+a*out1[j];}}for(i=1;i=n3;i++){for(j=1;j=n2;j++){w[j][i]=w2[i][j];}}for(j=1;j=n2;j++){df1[j]=(1-out1[j])*out1[j];s1[j]=0;for(i=1;i=n3;i++){z[j][i]=df1[j]*w[j][i];s1[j]=s1[j]+z[j][i]*s2[i];}}for(j=1;j=n2;j++){for(k=1;k=n1;k++){w1[j][k]=w1[j][k]+a*s1[j]*in1[k];}}}returnout2[n3];}voidmain(){}9.4答:略9.5答:Hopfield网络是一个单层回归自联想记忆网络。4将记忆用能量函数(Lyapunov)来表示,并且在每个处理单元(神经元)中引入了异步工作方式。显著特点就是:许多已有的结构,不管是信息处理单元还是信息存储单元,都是并行工作的。但从信息处理的角度看,虽支持并行分布信息存储,但是信息处理并不是真的以并行方式进行。优点是:通常的神经网络要求在所有的时间里,每一个处理单元都要有整个网络的全局信息,而Hopfield网络就减少了这种要求,Hopfield联想记忆模型迭代过程为不断地从一顶角转向具有更小能量的另一顶角,直至稳定于具有最小能量的一个顶角与之相对应,连续的Hopfield联想记忆模型迭代过程,从一个起始状态到另一个全局极小值(预存状态)来穿越超空间当所有的神经元都被访问到,并且没有神经元再改变状态时,就认为网络已经收敛。9.6答:用pascal写的hopfield神经网络解决TSP问题的代码:initializedist[max_city,max_city]:=0.0;FORc1:='A'TOmax_cityDOFORi:=1TOmax_positionDOu[c1,i]:=u00+(((2*random-1.0)/10.0)*u0);clrscr;writeln('TSP[c]1987KnowledgeGardenInc.');writeln('473AMaldenBridgeRd');writeln('Nassau,NY12123');writeln;writeln('PressSpaceBartobegin-Pressagaintostopiterating.');read(kbd,ch);END;(*initialize*)BEGINinitialize;iterate;END.59.7答:Kohonen网络自组织映射算法的实现过程如下:①定义一个输入向量与神经元接收到反馈信息加权值之间的相似性度量②选定输入向量与输出神经元所有连结权之间的相似度度量最大的为获胜输出单元③更新获胜神经元的权值和获胜神经元周围的邻域中所有单元的权值④不断自动地调整连接权最后由稳定的优胜神经元产生输出
本文标题:_人工神经网络习题解答
链接地址:https://www.777doc.com/doc-4411161 .html