一元线性回归:回归分析的入门与基本要素
回归分析的核心是构建回归方程,包括总体回归函数(PRF,即线性函数,通过估计参数来刻画)、样本回归函数(SRF,即解释变量对因变量的影响)以及随机误差项。后者捕捉了模型设定外的不确定性和随机影响。一元线性回归的参数估计目标,既要估计结构参数,也要了解随机误差项的分布特性。
最小二乘法:OLS的魔力
最常用的方法是最小二乘法(OLS),假设模型正确,解释变量的变异性得到体现,且误差项在条件下的期望值为零。线性回归的六个基本假设包括模型设定的合理性、解释变量的变异性、误差项的零均值、同方差性和独立性。最小二乘法追求的目标是通过最小化残差平方和,找到最优参数估计。正规方程的运用使得OLS估计具有线性、无偏性和有效性。随机误差项的方差可以通过估计得到,而回归标准差则衡量了模型拟合的精准度。在满足这些假设的前提下,OLS被尊称为BLUE(最佳线性无偏估计)。
在大样本情况下,OLS的估计量具备渐近无偏性、有效性以及一致性,这使得它在实践中被广泛应用。更重要的是,当样本量足够大时,OLS估计量的正态分布使得我们能够计算出期望值和方差,进而估计参数的标准差。
探索其他估计方法:MLE与MM
在第二讲中,我们将进一步深入探讨这些方法的优缺点,以及在实际分析中如何选择最合适的估计策略,以确保我们的模型能够准确揭示经济变量间的微妙关系。