您好,欢迎访问三七文档
当前位置:首页 > 办公文档 > 求职简历 > matlab基于最小二乘全局化算法遗传算法的参数识别
最小二乘法:%递推公式,更新p0=p2;forn=2:N-1%%递推最小二乘法K0=p0*X(n,:)'*inv(1+X(n,:)*p0*X(n,:)');%计算KTheta_abs=Theta_abs+K0*(Y(n)-X(n,:)*Theta_abs);%计算估计值Theta;p3=p0-K0*X(n,:)*p0;%计算Pp0=p3;%误差平方和最小Y1=X(n,:)*Theta_abs;%递推值J=(Y(n,:)-Y1)*(Y(n,:)-Y1)'if(Jerr)%设定平方误差最小,跳出循环break;end;end对于bnannkubkubnyakyakyba.......111引进后移算子11kykyq假定在初始条件0时z变换得到abbnannnzazazbzbbzXzYzH...1...11110ARX模型有:bbannnanzbzbbqBzazaqA......11101111kvkuqBqkyqAd11;kv为均值为0的噪声项上式可以改写为lkkvikubikzakzbaniinii,..,2,1,11上式改写为最小二乘格式)(kvkhkzT(3)对于(3)式的l次观测构成一个线性方程组TnnTbanabbbaaankukunkzkzkh,...,,,,...,,)(),...,1(),(),...,1()(2121即lllVHZ.TlTllvvvVlzzzZ,...2,1,,...,2,1)()1()(21)2()1(10)1(021bababalnlulunlzlznuunzznuunzzlhhhH取极小化准则函数LTLllkTHzHzkhkzJ12,极小化J,求得参数的估计值ˆ,Tnnnabbbaaaˆ,...,ˆ,ˆ,ˆ,...,ˆ,ˆˆ2121ˆˆˆ12llTlllkTHZHZkhkzJ表示为了确定使准则最小的条件,将该式对各参数求导,并令其结果等于零:lTllTllllZHHHHZHJ1ˆ,0ˆ2ˆ即,只要矩阵lH是满秩的,lTlHH则是正定的,使准则为极小的条件得到满足,最小二乘估计的递推算法(RLS)最小二乘法,不仅占用大量内存,而且不适合于在线辨识,为了解决这个问题,把它转化为递推算法:修正项kkˆˆ1)()1()(21)2()1(10)1(021bababalnlulunlzlznuunzznuunzzlhhhH若令1lTllHHP,则lTllTlllllTlllPhPhhIhPPhhPP111111111lTlllllTlllllTlllllPhKIPhPhhPKhzK111111111111;1;ˆˆ加权递推最小二乘(RWLS):,11kekuzBkzzA,11kvzCzDkee(k)为有色噪声,v(k)为白噪声。111zAzBzG111zCzDzN。取11zCzA,11zDlTlllllTllllllTlllllPhKIPhPhwhPKhzK1111111111111;11;ˆˆ当噪声为有色噪声时,采用增广最小二乘法:其思路采用CARMA模型。在实际应用中噪声v(k)有两种形式:kkhkzkvkkhkzkvˆˆ;1ˆˆ1matlab最小二乘法拟合[a,Jm]=lsqcurvefit(fun,a0,x,y);fun不支持句柄函数a0为最优化的初始值,fun为数据原型函数。x=lsqcurvefit(fun,x0,xdata,ydata,lb,ub);lb≤x≤ub[x,norm,res,ef,out,lam,jac]=lsqcurvefit(@F,x0,t,y,v1,v2,opt,P1,P2,...)其中输出变量的含义为:1)x:最优解2)norm:误差的平方和3)res:误差向量4)ef:程序结束时的状态指示:·0:收敛·0:函数调用次数或迭代次数达到最大值(该值在options中指定)·0:不收敛5)out:包含以下数据的一个结构变量·funcCount函数调用次数·iterations实际迭代次数·cgiterations实际PCG迭代次数(大规模计算用)·algorithm实际使用的算法·stepsize最后迭代步长(中等规模计算用)·firstorderopt一阶最优条件满足的情况(大规模计算用)6)lam:上下界所对应的Lagrange乘子7)jac:结果(x点)处的雅可比矩阵输入参数其中输入变量的含义为:·x0为初始解(缺省时程序自动取x0=0)·t,y:拟合数据·v1,v2:参数待求x的上下界·options:包含算法控制参数的结构LineSearchType线搜索方法(‘cubicpoly’,’quadcubic’(缺省值))opt=optimset(oldopts,newopts)可以设定的参数比较多,对lsqnonlin和lsqcurvefit,常用的有以下一些参数:Diagnostics是否显示诊断信息('on'或'off)Display显示信息的级别('off','iter','final,'notify)LargeScale是否采用大规模算法('on'或'off)缺省值为onMaxIter最大迭代次数TolFun函数计算的误差限TolX决策变量的误差限Jacobian目标函数是否采用分析Jacobi矩阵('on','off)MaxFunEvals目标函数最大调用次数LevenbergMarquardt搜索方向选用LM法(‘on’),GN法(‘off’,缺省值)LineSearchType线搜索方法(‘cubicpoly’,’quadcubic’(缺省值))LargeScale:[on|off]LevenbergMarquardt:[{on}|off]例子1用matlab实现对4.0,4,sin122sinsin22kmmf设1首先编写m文件functionf=lsq(x,xdata)f=x(1)*sin(xdata)+0.5*x(2)*sin(2*xdata)./(1-x(2)^2*sin(xdata).^2).^0.52利用lsqcurvefit函数调用m文件m=4;k=0.4o=[0:0.01*pi:2*pi];xdata=o;ydata=m*sin(o)+0.5*k*sin(2*o)./(1-(k^2*sin(o).^2)).^0.5;x0=[0;0];[x,resnorm]=lsqcurvefit(@lsq,x0,xdata,ydata)结果得到:x(1)=4.0000;x(2)=0.4000;resnorm=6.3377e-0162nlinfitm=4;k=0.4;o=[0:0.005*pi:2*pi];xdata=o;ydata=m*sin(o)+0.5*k*sin(2*o)./(1-(k^2*sin(o).^2)).^0.5;x0=[0;0];beta=nlinfit(xdata,ydata,@lsq,x0)例子1.1用fminunc函数;k1=13;k2=1.3;k3=9.1;xdata=0:pi/100:pi;ydata=k1*exp(k2*xdata)+k3*sin(xdata);F=@(x)norm(x(1).*exp(x(2).*xdata)+x(3).*sin(xdata)-ydata);[x,fr]=fminunc(F,[000])[x,fr]=fminsearch(F,[111])例子1.2用遗传算法的参数识别k1=13;k2=1.3;k3=9.1;xdata=0:pi/100:pi;ydata=k1*exp(k2*xdata)+k3*sin(xdata);F=@(x)norm(x(1).*exp(x(2).*xdata)+x(3).*sin(xdata)-ydata);[x,fval]=ga(F,3,[],[],[],[],[10;1;8],[20;10;15])%ee=norm(E);%使用差平方和最小原则;或者使用sum(abs(E));%ee=norm(E)/sqrt(n);%使用rms准则例子1.3利用multistart方法k1=13;k2=1.3;k3=9.1;xdata=0:pi/100:pi;ydata=k1*exp(k2*xdata)+k3*sin(xdata);F=@(x)norm(x(1).*exp(x(2).*xdata)+x(3).*sin(xdata)-ydata);ms=MultiStart;opts=optimset('Algorithm','interior-point','LargeScale','off');problem=createOptimProblem('fmincon','x0',[10,1,8],'objective',F,'lb',[1,0,1],'ub',[20,10,15],'options',opts);[xminm,fminm,flagm,outptm,manyminsm]=run(ms,problem,200)例子1.4利用globalsearchk1=13;k2=1.3;k3=9.1;xdata=0:pi/100:pi;ydata=k1*exp(k2*xdata)+k3*sin(xdata);F=@(x)norm(x(1).*exp(x(2).*xdata)+x(3).*sin(xdata)-ydata);gs=GlobalSearch('Display','iter');opts=optimset('Algorithm','interior-point');problem=createOptimProblem('fmincon','x0',[10,1,8],'objective',F,'lb',[1,0,1],'ub',[20,10,15],'options',opts);[xming,fming,flagg,outptg,manyminsg]=run(gs,problem)例子1.5利用multistart和lsqcurvefitk1=13;k2=1.3;k3=9.1;xdata=0:pi/100:pi;ydata=k1*exp(k2*xdata)+k3*sin(xdata);ms=MultiStart;opts=optimset('Algorithm','trust-region-reflective');problem=createOptimProblem('lsqcurvefit','x0',[10,1,8],'xdata',xdata,'ydata',ydata,'objective',@myfun,'lb',[1,0,1],'ub',[20,10,15],'options',opts);[xminm,fminm,flagm,outptm,manyminsm]=run(ms,problem,100)functiony=myfun(x
本文标题:matlab基于最小二乘全局化算法遗传算法的参数识别
链接地址:https://www.777doc.com/doc-2882053 .html