SPSS用逐步回归分析可以消除多重共线性。
1、用被解释变量对每一个所考虑的解释变量做简单回归。并给解释变量的重要性按可决系数大小排序。
2、以对被解释变量贡献最大的解释变量所对应的回归方程为基础,按解释变量重要性大小为顺序逐个引入其余的解释变量。这个过程会出现3种情形。
(1)若新变量的引入改进了R平方,且回归参数的t检验在统计上也是显著的,则该变量在模型中予以保留。
(2)若新变量的引入未能改进R平方,且对其他回归参数估计值的t检验也未带来什么影响,则认为该变量是多余的,应该舍弃。
(3)若新变量的引入未能改进R平方,且显著地影响了其他回归参数估计值的符号与数值,同时本身的回归参数也通不过t检验,这说明出现了严重的多重共线性,舍弃该变量。
扩展资料:
消除多重共线性的其他方法:
1、 直接合并解释变量
当模型中存在多重共线性时,在不失去实际意义的前提下,可以把有关的解释变量直接合并,从而降低或消除多重共线性。
2 、利用已知信息合并解释变量
通过理论及对实际问题的深刻理解,对发生多重共线性的解释变量引入附加条件从而减弱或消除多重共线性。
3、增加样本容量或重新抽取样本
这种方法主要适用于那些由测量误差而引起的多重共线性。当重新抽取样本时,克服了测量误差,自然也消除了多重共线性。另外,增加样本容量也可以减弱多重共线性的程度。
参考资料: