当所研究的问题涉及较多的自变量时,我们很难想象事先选定的全部自变量对因变量的影响都有显著性意义;也不敢保证全部自变量之间是相互独立的。换句话说,在建立多元线性回归方程时,需要根据各自变量对因变量的贡献大小进行变量筛选,剔除那些贡献小和与其他自变量有密切关系的自变量、发现那些对回归方程有很坏影响的观测点(这些都是回归诊断的重要内容),从而求出精练的、稳定的回归方程。
1、向前选择法(FORWARD)
模型中变量从无到有依次选一变量进入模型,并根据该变量在模型中的Ⅱ型离差平和(SS2)计算F统计量及P值。当P小于SLENTRY(程序中规定的选变量进入方程的显著性水平)则该变量入选,否则不能入选;当模型中变量少时某变量不符合入选标准,但随着模型中变量逐次增多时,该变量就可能符合入选标准;这样直到没有变量可入选为止。
2、向后剔除法(BACKWARD)
从模型语句中所包含的全部变量开始,计算留在模型中的各个变量所产生的F统计量和P值,当P小于SLSTAY(程序中规定的从方程中剔除变量的显著性 水平)则将此变量保留在方程中,否则,从最大的P值所对应的自变量开始逐一剔除,直到模型中没有变量可以剔除时为止。
3、逐步筛选法(STEPWISE)
此法是向前选择法和向后剔除法的结合。模型中的变量从无到有像向前选择法那样,根据F统计量按SLENTRY水平决定该变量是否入选;当模型选入变量 后,又像向后消去法那样,根据F统计量按SLSTAY水平剔除各不显著的变量,依次类推。这样直到没有变量可入选,也没有变量可剔除或入选变量就是刚剔除 的变量,则停止逐步筛选过程。
4、回归诊断方法
检验所选模型中的各变量之间共线性(即某些自变量之间有线性关系)情况;根据模型推算出与自变量取各样本值时对应的因变量的估计值y^,反过来检验所测得的Y是否可靠。方差膨胀因子和残差分析是回归诊断的两个重要任务。
暂无数据