$$ \newcommand\bm[1]{\boldsymbol{#1}} \renewcommand\limsup{\varlimsup} \renewcommand\liminf{\varliminf} $$

Keywords: 最小二乗法

$n$ を $2$ 以上の整数, $(x_1, y_1)$, $(x_2, y_2)$, $\ldots$, $(x_n, y_n)\in\mathbb{R}^2$ とし, $x_1$, $x_2$, $\ldots$, $x_n$ は互いに異なるものとする. このとき, $$ f(\alpha, \beta) = \sum_{i=1}^n\bigl(y_i - (\alpha x_i + \beta) \bigr)^2 $$ の最小値を与える $(\alpha, \beta)\in\mathbb{R}^2$ を求めよ.

解答例 1

まず, \begin{align*} f(\alpha, \beta) &= \sum_{i=1}^n\bigl(y_i - (\alpha x_i + \beta) \bigr)^2 \\ &= \sum_{i=1}^n(y_i^2+\alpha^2x_i^2+\beta^2-2\alpha x_iy_i + 2\alpha\beta x_i - 2\beta y_i) \\ &= A\alpha^2 + 2B\alpha\beta + C\beta^2 + 2D\alpha + 2E\beta + F. \end{align*} ただし, \begin{align*} & A = \sum_{i=1}^nx_i^2,\quad B = \sum_{i=1}^nx_i,\quad C = n, \\ & D = -\sum_{i=1}^nx_iy_i,\quad E = -\sum_{i=1}^ny_i,\quad F=\sum_{i=1}^ny_i^2 \end{align*} とおいた. 仮定より $x_1$, $x_2$, $\ldots$, $x_n$ は互いに異なるから, $A>0$ である.

Cauchy-Schwarz の不等式 $$ \left(\sum_{i=1}^na_ib_i\right)^2 \leq \sum_{i=1}^na_i^2\sum_{i=1}^nb_i^2 $$ において $a_i=x_i$, $b_i=1$ ($i=1$, $2$, $\ldots$, $n$) と置くと, $$ \left(\sum_{i=1}^nx_i\right)^2 \leq n\sum_{i=1}^nx_i^2 $$ が得られる. 仮定より $x_1$, $x_2$, $\ldots$, $x_n$ は互いに異なるから, この不等式で等号は成立しない. したがって, $AC-B^2>0$ が成り立つ.

$f(\alpha, \beta)$ の偏導関数を計算すると, \begin{align*} f_{\alpha} &= 2(A\alpha + B\beta + D), \\ f_{\beta} &= 2(B\alpha + C\beta + E), \\ f_{\alpha\alpha} &= 2A,\quad f_{\alpha\beta} = 2B,\quad f_{\beta\beta} = 2C \end{align*} であり, $3$ 階以上の偏導関数はすべて恒等的に $0$ である.

極値を与えうる点を求めるために, 連立方程式 $$ f_{\alpha} = 0,\quad f_{\beta} = 0 $$ を解くと, ただ1つの解 \begin{align*} \alpha &= \frac{BE-CD}{AC-B^2} = \frac{\displaystyle n\sum_{i=1}^nx_iy_i-\sum_{i=1}^nx_i\sum_{i=1}^ny_i}{\displaystyle n\sum_{i=1}^nx_i^2-\left(\sum_{i=1}^nx_i\right)^2}, \\ \beta &= \frac{BD-AE}{AC-B^2} = \frac{\displaystyle\sum_{i=1}^nx_i^2\sum_{i=1}^ny_i-\sum_{i=1}^nx_iy_i\sum_{i=1}^nx_i}{\displaystyle n\sum_{i=1}^nx_i^2-\left(\sum_{i=1}^nx_i\right)^2} \end{align*} が得られる. この $(\alpha, \beta)$ を $(a, b)$ とおく.

$f(\alpha, \beta)$ は $\mathbb{R}^2$ 全体で $C^{\infty}$ 級だから, Taylor の定理により, 任意の $h$, $k\in\mathbb{R}$ に対して, ある $\theta\in\mathbb{R}$ が存在して, \begin{align*} f(a+h,b+k) &= f(a, b) + \left(h\frac{\partial}{\partial\alpha}+k\frac{\partial}{\partial\beta}\right)f(a, b) \\ &\qquad + \frac{1}{2!}\left(h\frac{\partial}{\partial\alpha}+k\frac{\partial}{\partial\beta}\right)^2f(a, b) \\ &\qquad + \frac{1}{3!}\left(h\frac{\partial}{\partial\alpha}+k\frac{\partial}{\partial\beta}\right)^3f(a+\theta h, b+\theta k),\quad 0<\theta<1 \end{align*} が成り立つ. 先ほどの偏導関数の計算結果を適用すれば, \begin{align*} f(a+h, b+k) - f(a, b) &= Ah^2 + 2Bhk + Ck^2 \\ &= \frac{1}{A}\bigl( (Ah+Bk)^2 + (AC-B^2)k^2 \bigr). \end{align*} $A>0$, $AC-B^2>0$ であるから, $\mbox{(右辺)}\geq 0$ である. ゆえに, $f(a, b)$ が最小値である. しかも, $\mbox{(右辺)}=0$ ならば $h=k=0$ であるから, $f$ は $(a, b)$ においてのみ最小値をとる.

したがって, 求める答えは $(\alpha, \beta) = (a, b)$ である.

最終更新日:2011年11月02日

©2003-2011 よしいず