条件付き確率とベイズの定理

「条件付き確率」と「ベイズの定理」について理解するために、事象の因果関係(cause and effect)を整理してみました。

f:id:tkhs0604:20200906115801p:plain


上記の図は、以下のことを示しています。

  • 条件付き確率では、条件が追加されることによって確率が更新される
  • 条件付き確率では、事前確率・原因の確率・結果の確率(事後確率)のいずれか2つが分かれば、残りの確率が求められる (※2020/9/7 追記: これだけでは求められないときがある気がしたので、一旦打ち消しておきます…🙇‍♂️)


そして、条件付き確率およびベイズの定理はそれぞれ以下の用途で使われます。

  • 条件付き確率
    • 原因の確率が与えられたときに結果の確率を求める
  • ベイズの定理
    • 結果の確率が与えられたときに原因の確率(逆確率)を求める


後者の例としては、「PCR検査で陽性という結果が出たときに、新型コロナウイルスに本当に罹患している確率」を求めるといったものなどが挙げられます。

www.hc.u-tokyo.ac.jp


条件付き確率の定義とベイズの定理

条件付き確率は、元の確率に条件が加わることで確率が更新されることを表しています。

全事象に含まれる任意の事象 Xが起こる確率を P(X)とすると、 P(B) > 0のとき、事象 Bが起こる条件の下で事象 Aが起こる確率 P(A \mid B)

 P(A \mid B) = \displaystyle \frac{P(A \cap B)}{P(B)}

と定義されます。

ベイズの定理は、結果の確率が与えられたときに原因の確率が求められることを表しています。
つまり、予測ではなく推定を行うための定理です。

 P(A) > 0のとき、以下が成り立ちます。

 P(B \mid A) = \displaystyle \frac{P(B)\cdot P(A \mid B)}{P(A)}

これをベイズの定理と呼びます。

証明はこちら
全事象を U、任意の事象 Xが起こる場合の数を n(X)とすると

 P(A) = \displaystyle \frac{n(A)}{n(U)} P(B) = \displaystyle \frac{n(B)}{n(U)} P(A \cap B) = \displaystyle \frac{n(A \cap B)}{n(U)}

となる。
また、 P(B) > 0のとき、事象 Bが起こる条件の下で事象 Aが起こる確率 P(A \mid B)

 P(A \mid B) = \displaystyle \frac{n(A \cap B)}{n(B)}

となるので、これらより

 P(A \mid B) = \displaystyle \frac{n(A \cap B)}{n(B)}
   = \displaystyle \frac{\frac{n(A \cap B)}{n(U)}}{\frac{n(B)}{n(U)}}
   = \displaystyle \frac{P(A \cap B)}{P(B)}

が得られる。

同様にして、 P(A) > 0のとき

 P(B \mid A) = \displaystyle \frac{P(B \cap A)}{P(A)}
   = \displaystyle \frac{P(A \cap B)}{P(A)}

となるので、上記の2式より

 P(B) \cdot P(A \mid B) = P(A) \cdot P(B \mid A)

となる。
上記の式の両辺を P(A)で割ることにより、

 P(B \mid A) = \displaystyle \frac{P(B)\cdot P(A \mid B)}{P(A)}

が得られる。