6.6 显著性检验

由于显著性检验依赖于最小二乘估计的分布,在前述内容中已经说明最小二乘估计服从正态分布,因此该部分内容严重依赖于随机扰动项的正态性、同方差、无自相关假定。

同时,在显著性检验中涉及t检验和F检验,这就依赖如下条件

\[ \frac{SSE}{\sigma^2} \sim \chi^2(n-p-1) \tag{6.63} \]

证:

\[ \begin{aligned} \frac{SSE}{\sigma^2}&=\frac{e'e}{\sigma^2} \\ &=\frac{\varepsilon'(I-H)\varepsilon}{\sigma^2} \\ &=\frac{\varepsilon'}{\sigma}(I-H)\frac{\varepsilon}{\sigma} \end{aligned} \tag{6.64} \]

已知\(\varepsilon \sim N(0, \sigma^2I)\),则\(\frac{\varepsilon}{\sigma} \sim N(0,I)\)

由于式(6.64)为二次型,且矩阵\((I-H)\)为秩为\(n-p-1\)的对称幂等矩阵,故存在某种正交变换使得式(6.64)的二次型化为相互独立的变量平方和,也就是卡方分布,其中自由度就是矩阵\((I-H)\)的秩。 同时,根据式(6.62)可知\(\hat \beta\)\(SSE/\sigma^2\)独立。

6.6.1 区间估计

6.6.1.1 一元场合

根据式(6.45)已知\(\hat \beta_1\)的分布,由于\(\sigma^2\)未知,因此采用式(6.16)\(\hat \sigma^2\)进行替代,进而构造t统计量进行区间估计。

\[ \begin{gather} t=\frac{\hat \beta_1-\beta_1}{\sqrt{\hat \sigma^2/L_{xx}}} \sim t(n-2) \\ P\begin{pmatrix}\begin{vmatrix}\frac{\hat \beta_1-\beta_1}{\sqrt{\hat \sigma^2/L_{xx}}}\end{vmatrix} < t_{\alpha/2}(n-2)\end{pmatrix}=1-\alpha \\ \begin{pmatrix} \hat \beta_1-t_{\alpha/2}(n-2) \sqrt{\frac{\hat \sigma^2}{L_{xx}}}, \; \hat \beta_1+t_{\alpha/2}(n-2) \sqrt{\frac{\hat \sigma^2}{L_{xx}}}\end{pmatrix} \end{gather} \tag{6.65} \]

我们在乎自变量是否能解释因变量的变动,因此\(\hat \beta_0\)的区间估计,包括下面的显著性检验都不对\(\hat \beta_0\)进行讨论

6.6.1.2 多元场合

回顾式(6.46),可知\(\hat \beta_j \sim N(\beta_j, \sigma^2c_{jj})\),其中\(c_{jj}\)表示\((X'X)^{-1}\)的第\(j+1\)个主对角线元素,故有

\[ \begin{gather} t=\frac{\hat \beta_j-\beta_j}{\sqrt{\hat \sigma^2c_{jj}}} \sim t(n-p-1) \\ P\begin{pmatrix}\begin{vmatrix}\frac{\hat \beta_j-\beta_j}{\sqrt{\hat \sigma^2c_{jj}}}\end{vmatrix} < t_{\alpha/2}(n-p-1)\end{pmatrix}=1-\alpha \\ \begin{pmatrix} \hat \beta_j-t_{\alpha/2}(n-p-1) \sqrt{\hat \sigma^2 c_{jj}}, \; \hat \beta_j+t_{\alpha/2}(n-p-1) \sqrt{\hat \sigma^2 c_{jj}}\end{pmatrix} \end{gather} \tag{6.66} \]

挖坑,回归系数向量的置信域(置信椭球)

6.6.2 t检验

6.6.2.1 一元场合

t检验用于检验单个回归系数是否显著。

对于假设检验问题

\[ H_0:\beta_1=0 \quad vs \quad H_1:\beta_1 \neq 0 \]

在原假设下有\(\hat \beta_1 \sim N(0, \sigma^2/L_{xx})\),同样用式(6.16)\(\hat \sigma^2\)替代\(\sigma^2\),进而构造t统计量进行显著性检验。

\[ t=\frac{\hat \beta_1}{\sqrt{\hat \sigma^2/L_{xx}}} \tag{6.67} \]

在原假设下\(t \sim t(n-2)\),当\(|t| \geq t_{\alpha/2}(n-2)\)时拒绝原假设。

6.6.2.2 多元场合

对于假设检验问题

\[ H_0:\beta_j=0 \quad vs \quad H_1:\beta_j \neq 0 \]

在原假设下有\(\hat \beta_j \sim N(0,\sigma^2 c_{jj})\),故构造检验统计量

\[ t_j=\frac{\hat \beta_j}{\sqrt{\hat \sigma^2 c_{jj}}} \tag{6.68} \]

在原假设下\(t_j \sim t(n-p-1)\),当\(|t_j| \geq t_{\alpha/2}(n-p-1)\)时拒绝原假设。

考虑更一般的假设检验问题

\[ H_0:c'\beta=0 \quad vs \quad H_1:c'\beta \neq 0 \]

\(c'\hat \beta \sim N(c'\beta, \sigma^2c'(X'X)^{-1}c)\),故

\[ t=\frac{c'\hat \beta}{\sqrt{\hat \sigma^2c'(X'X)^{-1}c}} \tag{6.69} \]

原假设下有\(t \sim t(n-p-1)\),当\(|t| \geq t(n-p-1)\)时拒绝原假设

6.6.3 F检验

6.6.3.1 一元场合

F检验用于检验整个回归方程是否显著,也就是说检验因变量是否与至少一个自变量存在线性关系。特别的,一元场合只有一个自变量,因此F检验也就相当于检验\(\beta_1\)是否为0。

对于假设检验问题

\[ H_0:\beta_1=0 \quad vs \quad H_1:\beta_1 \neq 0 \]

构造F统计量

\[ F=\frac{SSR/1}{SSE/(n-2)} \tag{6.70} \]

其中\(SST=\sum_{i=1}^n(y_i-\bar y)^2, \; SSR=\sum_{i=1}^n(\hat y_i -\bar y)^2, \; SSE=\sum_{i=1}^n(y_i-\hat y_i)^2\)

在原假设下\(F \sim F(1,n-2)\),当\(F \geq F_\alpha(1,n-2)\)时,拒绝原假设。

注意到,在一元线性回归中,F统计量与t统计量有如下关系式

\[ t^2=\begin{pmatrix}\frac{\hat \beta_1}{\sqrt{\hat \sigma^2/L_{xx}}}\end{pmatrix}^2=\frac{\hat \beta_1^2L_{xx}}{SSE/(n-2))}=\frac{SSR}{SSE/(n-2)}=F \tag{6.71} \]

其中

\[ \begin{aligned} SSR&=\sum_{i=1}^n (\hat y_i - \bar y)^2 \\ &= \sum_{i=1}^n (\hat \beta_0 + \hat \beta_1x_i-\bar y)^2 \\ &= \sum_{i=1}^n (\bar y - \hat \beta_1 \bar x + \hat \beta_1x_i-\bar y)^2 \\ &= \sum_{i=1}^n \hat \beta_1^2(x_i-\bar x)^2 \\ &= \hat \beta_1^2 L_{xx} \end{aligned} \tag{6.72} \]

平方和分解式
\[ \begin{aligned} SST&=\sum_{i=1}^n(y_i-\bar y)^2 \\ &= \sum_{i=1}^n(y_i-\hat y_i+\hat y_i-\bar y)^2 \\ &=\sum_{i=1}^n(\hat y_i - \bar y)^ + \sum_{i=1}^n (y_i-\hat y_i)^2 + 2\sum_{i=1}^n(y_i-\hat y_i)(\hat y_i - \bar y) \\ &= SSR+SSE+2\sum_{i=1}^n(y_i-\hat y_i)\hat y_i - 2\bar y \sum_{i=1}^n (y_i-\hat y_i) \\ &= SSR+SSE+2\sum_{i=1}^n e_i(\hat \beta_0+\hat \beta_1x_i)-2\bar y \sum_{i=1}^n e_i \\ &= SSR+SSE +2\hat \beta_0 \sum_{i=1}^n e_i+2\hat \beta_1 \sum_{i=1}^n e_ix_i \\ &= SSR+SSE \end{aligned} \tag{6.73} \]
注意式(6.12)表明\(\sum_{i=1}^n e_i=0, \; \sum_{i=1}^n e_ix_i=0\)
关于式(6.70)的原理,可参考1999年王松桂《线性统计模型:线性回归与方差分析》中的定理4.1.1,该定理包括
(a) \(RSS/\sigma^2 \sim \chi^2_{n-p}\)
(b) 若约束条件\(A\beta=b\)成立,则\((RSS_H-RSS/\sigma^2) \sim \chi^2_m\)
(c) \(RSS\)\(RSS_H-RSS\)相互独立
(d) 当约束条件\(A\beta=b\)成立,则
\[ F_H = \frac{(RSS_H-RSS)/m}{RSS/(n-p)} \sim F_{m,n-p} \]
其中\(RSS_H\)表示受约束的最小二乘估计对应的残差平方和。

6.6.3.2 多元场合

整个回归方程的显著性检验同样采用F检验进行。

对于假设检验问题

\[ H_0: \beta_1=...=\beta_p=0 \quad vs \quad H_1: \exists \beta_i \neq 0, \; i\in \{1,...,p\} \]

构造F统计量

\[ F=\frac{SSR/p}{SSE/(n-p-1)} \tag{6.74} \]

在原假设下,\(F\sim F(p,n-p-1)\),当\(F \geq F_\alpha(p,n-p-1)\)时即可拒绝原假设。

下面对F检验进行推广。

考虑部分回归系数的显著性检验问题,不妨令\(\beta_2\)\(\beta\)中假设系数为0的那部分系数,对应的自变量有\(p^*\)个,记为\(X_2\)。剩余的系数和自变量个数为\(\beta_1\)\(p-p^*\)个,自变量记为\(X_1\)

更一般的线性假设问题及证明可参考1999年王松桂《线性统计模型:线性回归与方差分析》中的4.1节,其中的线性假设为\(A\beta=b\)

对于假设检验问题

\[ H_0:\beta_2=0 \quad vs \quad H_1:\beta_2 \neq 0 \]

对于同一样本,无约束回归与有约束回归对应的\(SST\)都是一致的。而在约束条件\(\beta_2=0\)下,对应的残差平方和\(SSE^*\)必定大于等于无约束条件下的残差平方和\(SSE\),即\(SSE^* \geq SSE\)。注意到有\(SSR-SSR^*=SSE^*-SSE\),结合式(6.63),在原假设下有

\[ F=\frac{(SSE^*-SSE)/(p-p^*)}{SSE/(n-p-1)} \sim F(p-p^*,n-p-1) \tag{6.75} \]

\(SSE^{\ast} / \sigma^2 \sim \chi^2(n-p^{\ast}-1)\)

\(SSE/\sigma^2 \sim \chi^2(n-p-1)\)

\((SSE^\ast-SSE) / \sigma^2 \sim \chi^2(p-p^\ast)\)

因此,该检验统计量通过度量\(SSE^*-SSE\)的差异大小来检验约束条件是否显著存在。若约束条件真的存在,则\(SSE^*-SSE\)之间的差异自然就小;若约束条件不存在,则\(SSE^*-SSE\)之间的差异自然就大。


多元场合的平方和分解式的表达

\[ \begin{gather} SST=\sum_{i=1}^n(y_i-\bar y)^2=\sum_{i=1}^n [(1-\frac{1}{n})y_i -\frac{1}{n}\sum_{j \neq i}y_j]^2=Y'(I-\frac{1}{n}1_n1_n')Y \\ SSE=\sum_{i=1}^n(y_i-\hat y_i)^2=Y'(I-H)Y \\ SSR=SST-SSE=Y'(H-\frac{1}{n}1_n1_n')Y \end{gather} \tag{6.76} \]

其中\(1_n\)表示长度为n且元素均为1的向量。


6.6.4 偏F检验

在多元场合中,根据式(6.75)的启示,可以假设某一自变量对应的回归系数为0,根据约束前后残差平方和的差异大小来判断该自变量的重要性,称此检验为偏F检验

假设检验问题为

\(H_0:\beta_j=0 \quad vs \quad H_1:\beta_j \neq 0\)

则检验统计量为

\[ F_j=\frac{(SSE_{(-j)}-SSE)/1}{SSE/(n-p-1)} \tag{6.77} \]

\(SSE_{(-j)}=Y'(I-H_0)Y, \; H_0=X_0(X_0'X_0)^{-1}X_0'\),其中\(X_0\)表示剔除变量\(x_j\)后的设计矩阵

其中\(SSE_{(-i)}\)表示去掉第\(i\)个自变量后所拟合模型的残差平方和。在原假设下,由\(F_i \sim F(1,n-p-1)\)。当\(F \geq F_\alpha(1,n-p-1)\)时拒绝原假设。

若约束前后残差平方和变化过大,说明该自变量较为重要,此时\(F_i\)的值会较大,倾向于拒绝原假设。

\(\beta_j\)的t检验统计量与偏F检验统计量有如下关系

\[ t_j^2=F_j \tag{6.78} \]

证:挖坑

6.6.5 样本决定系数

样本决定系数定义如下

\[ R^2=\frac{SSR}{SST}=\frac{\sum_{i=1}^n (\hat y_i-\bar y)^2}{\sum_{i=1}^n (y_i-\bar y)^2} \tag{6.79} \]

也称拟合优度、判定系数、确定系数。

\(R^2\)反映了因变量的变异(SST)中可以由自变量解释(SSR)的比例.

关于\(R^2\)这里推荐阅读统计之都的文章《为什么我不是R方的粉丝》

6.6.5.1 一元场合

在一元线性回归中,\(R^2\)与样本相关系数具有如下关系

\[ R^2=\frac{SSR}{SST}=\frac{\hat \beta_1^2 L_{xx}}{L_{yy}}=\frac{L_{xy}^2}{L_{xx}L_{yy}}=r^2 \tag{6.80} \]

6.6.5.2 多元场合

在多元场合中,样本决定系数\(R^2\)\(Cor(\hat Y, Y)\)具有如下关系

\[ \begin{aligned} Cor(\hat Y, Y)&=\frac{(\hat Y - 1_n\bar y)'(Y-1_n\bar y)}{\sqrt{SSR \times SST}} \\ &= \frac{(\hat Y - 1_n\bar y)'(\hat Y + e -1_n\bar y)}{\sqrt{SSR \times SST}} \\ &= \frac{(\hat Y - 1_n\bar y)'(\hat Y-1_n\bar y)+(\hat Y - 1_n\bar y)'e}{\sqrt{SSR \times SST}} \\ &= \frac{SSR+0}{\sqrt{SSR \times SST}} \\ &= \sqrt{\frac{SSR}{SST}} \\ &= \sqrt{R^2} \end{aligned} \tag{6.81} \]

\(e\)\(\hat Y\)正交,且\(\sum_{i=1}^n e_i=0\)

定义样本复相关系数为

\[ R=\sqrt{R^2}=\sqrt{\frac{SSR}{SST}} \tag{6.82} \]

反映了因变量与一组自变量间的相关性

定义调整的\(R^2\)

\[ R_{adj}^2 = 1-\frac{SSE/(n-p-1)}{SST/(n-1)}=1-\frac{n-1}{n-p-1}(1-R^2) \tag{6.82} \]

普通\(R^2\)会随着自变量的增加而单调增加,而调整的\(R^2\)相较于普通\(R^2\)多了对自变量个数的惩罚,因此可用于不同自变量个数下不同模型之间拟合效果的比较。