3.3 回归直线的拟合优度
根据以上回归模型的基本假定并利用最小二乘法,我们就可以得到一条拟合回归直线。那么,如何测量自变量X对因变量Y的解释程度呢?这就涉及回归直线或回归模型的拟合优度(goodness of fit)评价,也就是判断该直线与样本各观测点之间的接近程度,或者说因变量的差异能够被回归模型所解释的程度。在一般线性回归中,通常利用判定系数作为拟合优度的度量指标。
3.3.1 拟合优度的计算
样本中因变量Y有不同的取值yi(i=1, 2, …, n),我们将特定的观测值yi与均值之间的差异定义为离差。将这些离差的平方和称为总平方和,记作SST(sum of squares total),
由于,其中,。因此,公式(3-13)可以进一步表示为:
根据前面讲到的正交假定i ,这样, SST就被分解为:
其中,i被称为回归平方和,记作 SSR(sum of squares regression);被称为残差平方和,记作SSE(sum of squares error)。因此,公式(3-14)也可以简写为:
这里,总平方和(SST)表示因变量上的总变异,回归平方和(SSR)表示总变异中被回归方程解释了的那部分变异,而残差平方和(SSE)表示总变异中仍未被解释的那部分变异。因此,公式(3-15)实际上意味着:总变异=被解释的变异+未被解释的变异。那么,如果将回归平方和(SSR)除以总平方和(SST),就得到回归平方和占总平方和的比例。我们将该比例定义为判定系数(coefficient of determination),记作R2:
根据公式(3-15)所揭示的SST、SSR和SSE三者之间的关系,判定系数也可以根据下式进行计算:
作为回归直线拟合优度的测量指标,判定系数反映了回归方程所解释的变异在因变量总变异中所占的比例。图3-4以示意图的形式直观地揭示了判定系数的含义。
图3-4 判定系数R2的含义
因此,回归直线拟合得好坏或者回归方程解释能力的大小就反映在SSR与SST的比例上。R2的取值范围是 [0, 1]。各观测点越是靠近回归直线,SSR/SST就越大,判定系数便越接近1,直线拟合得就越好。以收入对受教育年限的回归为例,下图3-5和图3-6分别给出了R2=0和R2=1两种极端情形下回归直线的拟合情况。
图3-5 判定系数为0的情形
图3-6 判定系数为1的情形
3.3.2 判定系数、皮尔逊相关系数与标准化回归系数的关系
将公式(3-8)和公式(3-9)代入R2的计算公式(3-16),可以得到:
对比公式(3-18)和第一章1.3.12节中相关系数的计算公式注1,我们可以得到判定系数R2实际上就是样本皮尔逊相关系数的平方:
因为因变量的拟合值是自变量的线型函数,判定系数R2也可以看作是观测值yi和拟合值的相关系数的平方。公式(3-18)在手动计算中经常用到。
如果我们将回归系数标准化,则有。我们在对系数进行标准化时一般都采用样本统计量,但为方便起见,我们在这里使用总体参数的符号。注意到由于公式(3-8), ,故有
这正好是两变量间的相关系数。请注意,该式的平方即为R2。由于消除了变量单位的影响,标准化回归系数实际上是无量纲的,因此可用于比较自变量对因变量影响作用的大小。由于简单回归中只有一个自变量,因此一般不涉及需要对回归系数进行标准化的问题。但在稍后的多元回归讨论中,我们还会提及标准化回归系数在比较多个自变量的相对作用大小时的用途。
前面讲到,拟合优度测量指标R2的值越接近于1,意味着回归直线拟合得越好或者回归模型的解释力越大。不过,在社会科学中,R2通常都偏低,尤其是在横截面数据分析当中,情况更是如此。因此需要注意的是,低的R2并不必然意味着OLS回归是无效的。比如,在教育对收入的简单回归当中,一个较低的R2并不能表明教育对收入没有作用。