解説
[1]
(1)
\begin{eqnarray}
Z^TZ &=& \begin{pmatrix} 1 & 1 & 1 & 1 & 1 \\ -2 & -1 & 0 & 1 & 2 \end{pmatrix} \begin{pmatrix} 1 & -2 \\ 1 & -1 \\ 1 & 0 \\ 1 & 1 \\ 1 & 2 \end{pmatrix} \\
&=& \begin{pmatrix} 5 & 0 \\ 0 & 10 \end{pmatrix}
\end{eqnarray}
より、
\begin{eqnarray}
\hat{\beta} &=& (Z^TZ)^{-1}Z^T\boldsymbol{y} \\
&=& \frac{1}{5×10-0}\begin{pmatrix} 10 & 0 \\ 0 & 5 \end{pmatrix}\begin{pmatrix} 1 & 1 & 1 & 1 & 1 \\ -2 & -1 & 0 & 1 & 2 \end{pmatrix} \begin{pmatrix} 7.7 \\ 6.6 \\ 7.0 \\ 7.2 \\ 8.0 \end{pmatrix} \\
&=& \begin{pmatrix} 7.3 \\ 0.12 \end{pmatrix}
\end{eqnarray}
となる。
従って、単回帰式は、
\begin{eqnarray}
y &=& 7.3 + 0.12z \\
&=& 7.3 + 0.12 × (0.2x – 4) \\
&=& 7.3 + 0.24x – 0.48 \\
&=& 0.82 + 0.024
\end{eqnarray}
(2)
(1)を用いると予測値ベクトルと残差平方和は、
| \(x\) | \(y\) | \(\hat{y}\) | \((y-\hat{y})^2\) |
|---|---|---|---|
| 10 | 7.7 | 7.06 | 0.410 |
| 15 | 6.6 | 7.18 | 0.336 |
| 20 | 7 | 7.3 | 0.090 |
| 25 | 7.2 | 7.42 | 0.048 |
| 30 | 8 | 7.54 | 0.212 |
| 1.096 |
[2]
(1)
\(z\) および \(z^2\) を説明変数として重回帰分析を行う。
\[\tilde{Z}=\begin{pmatrix} 1 & -2 & 4 \\ 1 & -1 & 1 \\ 1 & 0 & 0 \\ 1 & 1 & 1 \\ 1 & 2 & 4 \end{pmatrix}\]
\[\boldsymbol{y}=\begin{pmatrix} 7.7 \\ 6.6 \\ 7.0 \\ 7.2 \\ 8.0 \end{pmatrix}\]
\begin{eqnarray}
Z^TZ &=& \begin{pmatrix} 1 & 1 & 1 & 1 & 1 \\ -2 & -1 & 0 & 1 & 2 \\ 4 & 1 & 0 & 1 & 4 \end{pmatrix} \begin{pmatrix} 1 & -2 & 4 \\ 1 & -1 & 1 \\ 1 & 0 & 0 \\ 1 & 1 & 1 \\ 1 & 2 & 4 \end{pmatrix} \\
&=& \begin{pmatrix} 5 & 0 & 10 \\ 0 & 10 & 0 \\ 10 & 0 & 34 \end{pmatrix}
\end{eqnarray}
より、
\begin{eqnarray}
\hat{\beta} &=& (Z^TZ)^{-1}Z^T\boldsymbol{y} \\
&=& \frac{1}{70}\begin{pmatrix} 34 & 0 & -10 \\ 0 & 7 & 0 \\ -10 & 0 & 5 \end{pmatrix}\begin{pmatrix} 1 & 1 & 1 & 1 & 1 \\ -2 & -1 & 0 & 1 & 2 \end{pmatrix} \begin{pmatrix} 7.7 \\ 6.6 \\ 7.0 \\ 7.2 \\ 8.0 \end{pmatrix} \\
&=& \frac{1}{70}\begin{pmatrix} 475 \\ 8.4 \\ 18 \end{pmatrix}
&=& \begin{pmatrix} 6.786 \\ 0.12 \\ 0.257 \end{pmatrix}
\end{eqnarray}
となる。
従って、重回帰式は、
\begin{eqnarray}
y &=& 6.79 + 0.12z + 0.26x^2 \\
&=& 6.79 + 0.12 × (0.2x – 4) + 0.26 × (0.2x – 4)^2 \\
&=& 10.47 – 0.392x + 0.0104x^2
\end{eqnarray}
(2)
(1)を用いると予測値ベクトルと残差平方和は、
| \(x\) | \(y\) | \(\hat{y}\) | \((y-\hat{y})^2\) |
|---|---|---|---|
| 10 | 7.7 | 7.59 | 0.012 |
| 15 | 6.6 | 6.93 | 0.109 |
| 20 | 7 | 6.79 | 0.044 |
| 25 | 7.2 | 7.17 | 0.001 |
| 30 | 8 | 8.07 | 0.005 |
| 0.171 |
[3]
\(n\log{S_e}+2(p+2)\) の大小を比較する。
[1]の単回帰モデルの場合は、\(5\log{1.10}+2×(1+2)\fallingdotseq 6.46\)
[2]の重回帰モデルの場合は、\(5\log{0.17}+2×(2+2)\fallingdotseq -0.85\)
となり、[2]の方が AIC の値が小さく、良いモデルと言える。



コメント