您好,欢迎访问三七文档
当前位置:首页 > 行业资料 > 其它行业文档 > 薛薇第四版SPSS第九章
第九章SPSS的线性回归分析回归分析概述(一)回归分析理解(1)“回归”的含义:galton研究父亲身高和儿子身高的关系时的独特发现.(2)回归线的获得方式一:局部平均回归曲线上的点给出了相应于每一个x(父亲)值的y(儿子)平均数的估计(3)回归线的获得方式二:拟和函数使数据拟和于某条曲线;通过若干参数描述该曲线;利用已知数据在一定的统计准则下找出参数的估计值(得到回归曲线的近似);回归分析概述(二)回归分析的基本步骤(1)确定自变量和因变量(父亲身高关于儿子身高的回归与儿子身高关于父亲身高的回归是不同的).(2)从样本数据出发确定变量之间的数学关系式,并对回归方程的各个参数进行估计.(3)对回归方程进行各种统计检验.(4)利用回归方程进行预测.回归分析概述(三)参数估计的准则目标:观察值与回归线上的预测值之间的距离总和达到最小最小二乘法(利用最小二乘法拟和的回归直线与样本数据点在垂直方向上的偏离程度最低)一元线性回归分析(一)一元回归方程:y=β0+β1xβ0为常数项;β1为y对x回归系数,即:x每变动一个单位所引起的y的平均变动(二)一元回归分析的步骤利用样本数据建立回归方程回归方程的拟和优度检验回归方程的显著性检验(t检验和F检验)残差分析预测一元线性回归方程的检验(一)拟和优度检验:(1)目的:检验样本观察点聚集在回归直线周围的密集程度,评价回归方程对样本数据点的拟和程度(2)思路:•因为:因变量取值的变化受两个因素的影响•自变量不同取值的影响;其他因素的影响•于是:因变量总变差=自变量引起的+其他因素引起的•即:因变量总变差=回归方程可解释的+不可解释的•可证明:因变量总离差平方和=回归平方和+剩余平方和一元线性回归方程的检验(3)统计量:判定系数R2=SSR/SST=1-SSE/SST.R2体现了回归方程所能解释的因变量变差的比例;1-R2则体现了因变量总变差中,回归方程所无法解释的比例。R2越接近于1,则说明回归平方和占了因变量总变差平方和的绝大部分比例,因变量的变差主要由自变量的不同取值造成,回归方程能够较好拟合样本数据点在一元回归中R2=r2;因此,从这个意义上讲,判定系数能够比较好地反映回归直线对样本数据的代表程度和线性相关性。niiniiniiniiyyyyyyyyR121212122)()ˆ(1)()ˆ(一元线性回归方程的检验(二)回归方程的显著性检验:F检验(1)目的:检验自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示.(2)H0:β=0即:回归系数与0无显著差异(3)利用F检验,构造F统计量:F=平均的回归平方和/平均的剩余平方和~F(1,n-1-1)如果F值较大,则说明自变量造成的因变量的线性变动远大于随机因素对因变量的影响,自变量于因变量之间的线性关系较显著(4)计算F统计量的值和相伴概率p(5)判断p=a:拒绝H0,即:回归系数与0有显著差异,自变量与因变量之间存在显著的线性关系。反之,不能拒绝H0)1/()ˆ(/)ˆ(22knyykyyFiii一元线性回归方程的检验(三)回归系数的显著性检验:t检验(1)目的:检验自变量对因变量的线性影响是否显著.(2)H0:β=0即:回归系数与0无显著差异(3)利用t检验,构造t统计量:其中:Sy是回归方程标准误差(StandardError)的估计值,由均方误差开方后得到,反映了回归方程无法解释样本数据点的程度或偏离样本数据点的程度如果回归系数的标准误较小,必然得到一个相对较大的t值,表明该自变量x解释因变量线性变化的能力较强。(4)计算t统计量的值和相伴概率p(5)判断iiiSt22)(iiyixxSS一元线性回归方程的检验(四)t检验与F检验的关系一元回归中,F检验与t检验一致,即:F=t2,两种检验可以相互替代(五)F统计量和R2值的关系如果回归方程的拟合优度高,F统计量就越显著。F统计量越显著,回归方程的拟合优度就会越高。)1/()1(/22knRkRF线性回归方程的残差分析(一)残差序列的正态性检验:绘制标准化残差的直方图或累计概率图(二)残差序列的随机性检验绘制残差和预测值的散点图,应随机分布在经过零的一条直线上下线性回归方程的残差分析(三)残差序列独立性检验:–残差序列是否存在后期值与前期值相关的现象,利用D.W(Durbin-Watson)检验–d-w=0:残差序列存在完全正自相关;d-w=4:残差序列存在完全负自相关;0d-w2:残差序列存在某种程度的正自相关;2d-w4:残差序列存在某种程度的负自相关;d-w=2:残差序列不存在自相关.–残差序列不存在自相关,可以认为回归方程基本概括了因变量的变化;否则,认为可能一些与因变量相关的因素没有引入回归方程或回归模型不合适或滞后性周期性的影响.线性回归方程的残差分析(四)异常值(casewise或outliers)诊断利用标准化残差不仅可以知道观察值比预测值大或小,并且还知道在绝对值上它比大多数残差是大还是小.一般标准化残差的绝对值大于3,则可认为对应的样本点为奇异值异常值并不总表现出上述特征.当剔除某观察值后,回归方程的标准差显著减小,也可以判定该观察值为异常值线性回归方程的预测(一)点估计y0(二)区间估计x0为xi的均值时,预测区间最小,精度最高.x0越远离均值,预测区间越大,精度越低.普通职工数(x)18001600140012001000800600400200领导(管理)人数(y)3002001000多元线性回归分析(一)多元线性回归方程多元回归方程:y=β0+β1x1+β2x2+...+βkxkβ1、β2、βk为偏回归系数。β1表示在其他自变量保持不变的情况下,自变量x1变动一个单位所引起的因变量y的平均变动(二)多元线性回归分析的主要问题回归方程的检验自变量筛选多重共线性问题多元线性回归方程的检验(一)拟和优度检验:(1)判定系数R2:R是y和xi的复相关系数(或观察值与预测值的相关系数),测定了因变量y与所有自变量全体之间线性相关程度(2)调整的R2考虑的是平均的剩余平方和,克服了因自变量增加而造成R2也增大的弱点在某个自变量引入回归方程后,如果该自变量是理想的且对因变量变差的解释说明是有意义的,那么必然使得均方误差减少,从而使调整的R2得到提高;反之,如果某个自变量对因变量的解释说明没有意义,那么引入它不会造成均方误差减少,从而调整的R2也不会提高。SSTSSEknnR1112因变量的样本方差均方误差12R多元线性回归方程的检验(二)回归方程的显著性检验:(1)目的:检验所有自变量与因变量之间的线性关系是否显著,是否可用线性模型来表示.(2)H0:β1=β2=…=βk=0即:所有回归系数同时与0无显著差异(3)利用F检验,构造F统计量:F=平均的回归平方和/平均的剩余平方和~F(k,n-k-1)如果F值较大,则说明自变量造成的因变量的线性变动大于随机因素对因变量的影响,自变量于因变量之间的线性关系较显著(4)计算F统计量的值和相伴概率p(5)判断:p=a:拒绝H0,即:所有回归系数与0有显著差异,自变量与因变量之间存在显著的线性关系。反之,不能拒绝H0)1/()ˆ(/)ˆ(22knyykyyFiii多元线性回归方程的检验(三)回归系数的显著性检验(1)目的:检验每个自变量对因变量的线性影响是否显著.(2)H0:βi=0即:第i个回归系数与0无显著差异(3)利用t检验,构造t统计量:(4)逐个计算t统计量的值和相伴概率p(5)判断iiiSt22)(iiyixxSS多元线性回归方程的检验(四)t统计量与F统计量一元回归中,F检验与t检验一致,即:F=t2,可以相互替代在多元回归中,F检验与t检验不能相互替代Fchange=ti2从Fchange角度上讲,如果由于某个自变量xi的引入,使得Fchange是显著的(通过观察Fchange的相伴概率值),那么就可以认为该自变量对方程的贡献是显著的,它应保留在回归方程中,起到与回归系数t检验同等的作用。221)1(RknRFchchange222ichRRR自变量筛选(一)自变量筛选的目的多元回归分析引入多个自变量.如果引入的自变量个数较少,则不能很好的说明因变量的变化;并非自变量引入越多越好.原因:有些自变量可能对因变量的解释没有贡献自变量间可能存在较强的线性关系,即:多重共线性.因而不能全部引入回归方程.自变量筛选(二)自变量向前筛选法(forward):即:自变量不断进入回归方程的过程.首先,选择与因变量具有最高相关系数的自变量进入方程,并进行各种检验;其次,在剩余的自变量中寻找偏相关系数最高的变量进入回归方程,并进行检验;默认:回归系数检验的概率值小于PIN(0.05)才可以进入方程.反复上述步骤,直到没有可进入方程的自变量为止.自变量筛选(三)自变量向后筛选法(backward):即:自变量不断剔除出回归方程的过程.首先,将所有自变量全部引入回归方程;其次,在一个或多个t值不显著的自变量中将t值最小的那个变量剔除出去,并重新拟和方程和进行检验;默认:回归系数检验值大于POUT(0.10),则剔除出方程如果新方程中所有变量的回归系数t值都是显著的,则变量筛选过程结束.否则,重复上述过程,直到无变量可剔除为止.自变量筛选(四)自变量逐步筛选法(stepwise):即:是“向前法”和“向后法”的结合。向前法只对进入方程的变量的回归系数进行显著性检验,而对已经进入方程的其他变量的回归系数不再进行显著性检验,即:变量一旦进入方程就不回被剔除随着变量的逐个引进,由于变量之间存在着一定程度的相关性,使得已经进入方程的变量其回归系数不再显著,因此会造成最后的回归方程可能包含不显著的变量。逐步筛选法则在变量的每一个阶段都考虑的剔除一个变量的可能性。线性回归分析中的共线性检测(一)共线性带来的主要问题高度的多重共线会使回归系数的标准差随自变量相关性的增大而不断增大,以至使回归系数的置信区间不断增大,造成估计值精度减低.(二)共线性诊断自变量的容忍度(tolerance)和方差膨胀因子容忍度:Toli=1-Ri2.其中:Ri2是自变量xi与方程中其他自变量间的复相关系数的平方.容忍度越大则与方程中其他自变量的共线性越低,应进入方程.(具有太小容忍度的变量不应进入方程,spss会给出警)(T0.1一般认为具有多重共线性)方差膨胀因子(VIF):容忍度的倒数SPSS在回归方程建立过程中不断计算待进入方程自变量的容忍度,并显示目前的最小容忍度线性回归分析中的共线性检测(二)共线性诊断用特征根刻画自变量的方差若自变量间确实存在较强的相关关系,那么它们之间必然存在信息重叠,于是可从这些自变量中提取出既能反映自变量信息(方差)又相互独立的因素(成分)来.从自变量的相关系数矩阵出发,计算相关系数矩阵的特征根,得到相应的若干成分.若某个特征根既能够刻画某个自变量方差的较大部分比例(如大于0.7),同时又可以刻画另一个自变量方差的较大部分比例,则表明这两个自变量间存在较强的多重共线性。条件指标0k10无多重共线性;10=k=100较强;k=100严重imik线性回归分析中的异方差问题(一)什么是异方差回归模型要求残差序列服从均值为0并具有相同方差的正态分布,即:残差分布幅度不应随自变量或因变量的变化而变化.否则认为出现了异方差现象(二)异方差诊断可以通过绘制标准化残差序列和因变量预测值(或每个自变量)的散点图来识别是否存在异方差(三)异方差处理实施方差稳定性变换残差与yi(预测值)的平方根呈正比:对yi开平方残差与yi(预测值)呈正比:对yi取对数.残差与yi(预测值)的平方呈正比,则1/yi曲线估计(一)目的:在一元
本文标题:薛薇第四版SPSS第九章
链接地址:https://www.777doc.com/doc-2025943 .html