在相关分析时不显著却进去了回归模型的原因

如题所述

不显著说明不拒绝原假设,SPSS会继续计算,但是这些结果也就没有意义。回归模型重要的基础或者方法就是回归分析,回归分析是研究一个变量(被解释变量)关于另一个(些)变量(解释变量)的具体依赖关系的计算方法和理论。

是建模和分析数据的重要工具。在这里,我们使用曲线/线来拟合这些数据点,在这种方式下,从曲线或线到数据点的距离差异最小。

扩展资料

使用回归分析的好处良多。具体如下:

1、它表明自变量和因变量之间的显著关系;

2、它表明多个自变量对一个因变量的影响强度。

这些有利于帮助市场研究人员,数据分析人员以及数据科学家排除并估计出一组最佳的变量,用来构建预测模型。

参考资料来源:百度百科-回归模型

温馨提示:答案为网友推荐,仅供参考
第1个回答  推荐于2017-05-18
spss里的pearson相关分析的作用就是单纯考量变量两两之间的关系,虽然你可以在分析时一次放入多个变量,但出来的结果都是两个变量的简单的相关,也就是不在求两变量相关时考虑其他的控制变量。
然而回归不同,回归的结果是综合所有进入回归方程的自变量对因变量的结果而成的,也就是说,在回归当中你所看到的相关,是在控制了其他进入回归方程的变量之后的。
因此,普通相关与回归之中的回归系数会有比较大的差别。举个例子,比如你考查变量a,b,c之间的关系,如果你使用一般的相关,那么其结果呈现的是a和b的简单相关,b和c的简单相关,a和c的简单相关,每一个相关都只涉及到两个变量,而与第三个变量无关,但如果是回归,回归里a和b的相关是在减去c变量的效应之后的,b和c的相关是在减去a的效应后的,a和c的相关是减去b的效应后的。
计算方法不同,得出的结果就不同。所以相关性分析时两变量关系不显著,回归分析却显著了这很正常。出现任何形式的不同都不奇怪
相似回答