プロビットモデルとは

データ分析
データ分析回帰分析
0

本記事では離散選択モデルの1つであるプロビットモデルについてメモする。

スポンサーリンク

プロビットモデルとは

二項選択の確率を非線形なモデルとして推定するときに使われるモデルである。
例えば、

  • 商品Aを買うか買わないか
  • 大学に進学するかしないか
  • ローンの審査に通るか通らないか

プロビットモデルは3つ以上の選択を推定する場合にも用いられるが、ロジットモデルを用いる場合が多い。
したがって、本記事では二項選択のモデルとしてプロビットモデルを紹介する。

線形確率モデルではだめなのか

目的関数を確率として以下のような線形モデルで推定するとき、どんな問題が存在するだろうか?
$$P(Y_i = 1) = a+bX_i+u_i$$

まず1つ目は、説明変数 $X_i$ の値に制約がない限り、目的関数 $P(Y_i=1)$ が0から1までの値にならない場合があるということである。
$X_i$ が小さすぎると $P(Y_i=1) < 0$ となるし、$X_i$ が大きすぎると $P(Y_i=1) > 1$ となり、確率として解釈できない。

2つ目の問題としては、上式のような線形モデルで推定すると、誤差項の分散が不均一になりBLUEとならないことが挙げられる。
次の記事のように、加重または一般最小二乗法を用いることでこの問題は対処できる。

したがって、1つ目の問題を気にしない場合は線形確率モデルが用いられる。
しかし、無視できない場合はプロビットモデルのような非線形モデルを用いる。

推定式

プロビットモデルでは推定式の誤差項 $u_i$ が正規分布に従うとして確率を推定する。
正規分布は代表的な連続型の確率分布であり、自然界や人間社会の中の数多くの減少にあてはまり、統計学において極めて重要である。
確率密度関数は次のように与えられる。
$$f(x) = \frac{1}{\sqrt{2 \pi}\sigma} \exp \left\{- \frac{(x-\mu)^2}{2\sigma^2}\right\}$$
ただし、 $\sigma$ は標準偏差、 $\mu$ は平均である。
結局、推定式(確率)はこれを積分して次のようになる。
$$P(Y_i=1) = \frac{1}{\sqrt{2 \pi}\sigma} \int_{- \infty}^{\beta_0 +\beta_1 X_i} \exp \left\{- \frac{(x-\mu)^2}{2\sigma^2}\right\} \mathrm{d}x$$

推定方法

プロビットモデルは非線形モデルであるため最小二乗誤差ではなく、最尤推定法を用いる。
$P(Y_i=1)=p_i,~P(Y_i) = p_i^{Y_i} (1 – p_i)^{1-Y_1}$ として、尤度関数は、
$$l(\beta_0, \beta_1) = \prod_{i=1}^n p_i^{Y_i} (1 – p_i)^{1-Y_i}$$
と表せる。
よって、対数尤度関数は、
\begin{align}
L(\beta_0, \beta_1) = \sum_{i=1}^n \left\{ Y_i \ln p_i + (1-Y_i) \ln (1-p_i) \right\}
\end{align}

結局、最尤推定量 $\hat{\beta}_0,~\hat{\beta}_1$ は上式を最大化する値なのだが、簡単は表せない。
したがって、最適化アルゴリズムや近似解法を用いるのが一般的である。

限界効果

線形モデル $Y_i = a+bX_i$ では係数 $b$ が説明変数 $X_i$ の目的変数 $Y_i$ に対する影響度合い(限界効果)を表している。

プロビットモデル $P_i(Y_i) = F(a+bX_i)$では、係数によって限界効果を直接表せないので、確率を $X_i$ で微分して求める。

スポンサーリンク

ロジットモデルとの比較

冒頭述べたように、3つ以上の選択肢がある場合はロジットモデルという離散選択モデルが用いられる。
ロジットモデルのIIA特性を避けたいときなどにプロビットモデルが用いられるといった使い分けがされている。

ロジットモデルについては以下の記事にまとめた。

ロジットモデルとは
本記事では離散選択モデルの1つであるロジットモデルについて紹介する。また、プロビットモデルとの違いについても記述する。順序ロジットモデルと多項ロジットモデルロジットモデルは複数の選択肢から1つを選ぶ離散選択モデルの1つであ...

参考書籍

2冊の参考書籍を載せておく。

1冊目は統計基礎の教科書で、2冊目は計量経済学の教科書である。
どちらも非常に良書である。

本記事の内容は1冊目の6章、2冊目の7章に書かれている。

スポンサーリンク
H-MEMO

コメント