線形回帰 (Linear Regression)
線形回帰(Linear Regression)とは、統計学や機械学習において、ある変数(目的変数、あるいは従属変数)と、それに影響を与える一つまたは複数n個の変数(説明変数、あるいは独立変数)との間の関係を、線形のモデル(直線または平面、さらに高次元の超平面)を用いて表現するデータ分析手法です。
簡単に言うと、データポイントの集まりに最もよく当てはまる直線を引くことで、説明変数の値から目的変数の値を予測したり、両者の関係性を明らかにしたりする手法です
線形回帰の数式モデル
線形回帰の目的は、説明変数と目的変数の間に存在する線形関係を数学的なモデルとして定式化することです。
このモデルは、以下のような線形方程式で表されます。
- 単回帰分析(説明変数が1つの場合):
y=ax+b
ここで、yは目的変数、xは説明変数、aは傾き(回帰係数)、bは切片です。
- 重回帰分析(説明変数が複数n個の場合):
y=b0+b1x1+b2x2+...+bnxn
ここで、yは目的変数、x1,x2,...,xnは説明変数、b0は切片、b1,b2,...,bnは各説明変数に対応する回帰係数です。
線形回帰における係数推定方法
線形回帰では、与えられたデータを用いて、この方程式における係数(傾きや切片)を推定します。この推定には、実測値とモデルによる予測値との差(残差)の二乗の合計が最小になるように係数を決定する「最小二乗法」がよく用いられます。
