机器学习量化

贝叶斯 条件概率 的推导

2018-11-20  本文已影响5人  梅_梅

1. 条件概率

事物A独立发生的概率为P(A),事物B独立发生的概率为P(B),那么有:

P (A|B)

表示事物B发生之后事物A发生的概率;

P (B|A)

表示事物A发生之后事物B发生的概率;

2. 全概率

2.1 定义

我们可以将公式写成全量的形式:

B_k (k=1,2,3...n)

表示全量相互排斥且性质关联的事物,即:

B_i\bigcap B_j = \emptyset

B_1 \bigcup B_2 \bigcup B_3 ... \bigcup B_n = \Omega

那么可以得到全概率公式

P(A) = \sum_{i=1}^{n} P(B_i)P(A | B_i)

全概率公式的意义在于:无法知道一个事物独立发生的概率,但是我们可以将其在各种条件下发生的概率进行累加获得。

2.2 例子

已知某种疾病的发病率是0.001,即1000人中会有1个人得病。现有一种试剂可以检验患者是否得病,它的准确率是0.99,即在患者确实得病的情况下,它有99%的可能呈现阳性。它的误报率是5%,即在患者没有得病的情况下,它有5%的可能呈现阳性。一个人检测为阳性的概率是多少。

P(A) = 0.001

表示发病率

P(\overline{A})=0.999

表示不发病率,P(B)表示检查为阳性的概率.
则一个人检测为阳性的概率是为

P(B) = P(A)P(B|A) + P(\overline{A}) P(B| \overline{A})

在病人已患病的条件下,被检查为阳性的概率为

P(B|A) = 0.99

在病人未患病的条件下,被误诊为阳性的概率为

P(B| \overline{A}) = 0.05

因此一个病人被检查为阳性的概率为

P(B) = 0.001 \times 0.99 + 0.999 \times 0.05 = 0.05094

3. 贝叶斯

3.1 定义

P(A|B) = P(A) \times \frac{P(B|A)}{P(B)}

可以理解他是全概率公式的反向应用,他是求某个条件出现时某个事件发生的概率。定义如下:
P(A) 为前置概率,表示B未发生时A发生的概率.
P(A|B) 为后置概率, 表示B发生时A发生的概率
贝叶斯公式可以看作是事件B发生后对前置概率的修正,而

\frac{P(B|A)}{P(B)}
是修正因子。

3.2 证明

我们可以从条件概率的定义推导出贝叶斯定理。
根据条件概率的定义,在事件 B 发生的条件下事件 A 发生的概率为:
P(A|B) = \frac{P(A \bigcap B )}{P(B)}

同样地,在事件 A 发生的条件下事件 B 发生的概率为:

P(B|A) = \frac{P(B \bigcap A )}{P(A)}

P(A \bigcap B ) = P(B \bigcap A )

结合这两个方程式,我们可以得到:

P(A|B)P(B) = P(A \bigcap B ) = P(B \bigcap A ) = P(B|A)P(A)

因此证得

P(A|B) = P(A) \times \frac{P(B|A)}{P(B)}

通常,事件 A 在事件 B 发生的条件下的概率,与事件 B 在事件 A 发生的条件下的概率是不一样的;然而,这两者是有确定关系的,贝叶斯定理就是这种关系的陈述。

贝叶斯公式的用途在于通过己知三个概率来推测第四个概率。它的内容是:在 B 出现的前提下,A 出现的概率等于 A 出现的前提下 B 出现的概率乘以 A 出现的概率再除以 B 出现的概率。通过联系 A 与 B,计算从一个事件发生的情况下另一事件发生的概率,即从结果上溯到源头(也即逆向概率)。

通俗地讲就是当你不能确定某一个事件发生的概率时,你可以依靠与该事件本质属性相关的事件发生的概率去推测该事件发生的概率。用数学语言表达就是:支持某项属性的事件发生得愈多,则该事件发生的的可能性就愈大。这个推理过程有时候也叫贝叶斯推理。

上一篇 下一篇

猜你喜欢

热点阅读