概率论(三):条件概率,独立性和贝叶斯定理

Junity 发布于 7 天前 182 次阅读 最后更新于 1 天前 1727 字 预计阅读时间: 8 分钟


AI 摘要

本文系统讲解条件概率、独立性和贝叶斯定理三大核心概念。从条件概率的定义与公式出发,深入探讨事件独立性的数学表达;通过全概率法则阐述事件分解思想,并重点解析贝叶斯定理的推导过程及其在实际问题中的应用,包括先验概率与后验概率的关系,以及贝叶斯公式在离散和连续情形下的推广形式。

条件概率

条件概率 是已知一个事件发生时,另一个事件发生的概率。例如,在投掷一枚骰子时,我们已经知道结果是偶数,问结果是 2 的概率为多少,这就是一个典型的条件概率。设有事件 AB ,我们记 P(A|B) 表示已知 B 发生的情况下,A 发生的概率是多少。

根据直觉,我们可以预见到,在某些情况下,P(A|B)P(A) 。这是因为 B 发生这个信息会导致原本的概率分布改变。理解概率论的一个关键点在于理解概率和信息的关系:随着已知的信息越来越多,概率的分布也会随之改变,最后使得某个事件的概率为 1 ,而其他事件的概率为 0 。这一点很容易理解,因为 信息是对不确定性的消除,而概率是对不确定性的描述 ,当所有不确定都被消除后,就只剩下了一种可能。

接下来的问题是如何得到 Pr(A|B) 的值。考虑概率空间 (Ω,F,P)B 发生使得概率函数 P 变为了 PBB 发生意味着什么?首先,这会导致 PB(BC)=0 ;其次,这个条件不会改变 B 的子事件之间概率之比。因此我们得到了下面的两点:

  • PB(BC)=0,因此 PB(B)=1
  • X , YB 的子事件,P(X)P(Y)=PB(X)PB(Y)

从第二点可以看出,对于 B 的子事件,B 发生只会导致他们的概率乘上同一个常数 α 。因为B 也是自己的子事件,因此 PB(B)=αP(B) ,那么 α=1P(B)

这和 P(A|B) 又有什么关系呢?事实上,P(A|B) 等价于 PB(A) ,我们将 A 分成 ABA/B 两部分,那么 PB(A)=PB(AB)+PB(A/B)=PB(AB)=P(AB)P(B) 。因此我们得到了条件概率的公式:

P(A|B)=P(AB)P(B)

如果不考虑严谨性,还可以用文氏图来帮助理解这个公式:
Screenshot_2025-04-19-17-34-06-971_com.orion.notein.png

乘法法则

将条件概率的公式逆用,我们可以得到下面的公式:

P(AB)=P(A|B)P(B)

同时,由于 AB=BA ,由对称性可知 P(AB)=P(B|A)P(A) 。下文会提到,将这个公式再进一步,就得到了贝叶斯定律。

事件的独立性

两个事件独立,说明一个事件发生不会改变另一个事件发生的概率,这意味着 P(A|B)=P(A) (当 AB 相互独立时)。由于 P(A|B)=P(AB)P(B) ,因此此时 P(AB)=P(A)P(B) 。这也意味着 B 发生时不会 “泄漏” 和 A 有关的信息。

如果已知两个事件独立,最大的好处是可以直接由他们的概率之积计算他们积事件的概率。因此我们从这一点出发,定义两个事件的独立为:

P(AB)=P(A)P(B)

类似的,对于 n 个事件 An,他们独立性的定义为:
任意取出其中的 m 个事件 At1,At2,...,Atm ,都有:

P(At1At2...Atm)=j=1mP(Atj)

下面给出几个独立事件的例子:

  1. 在一个 100×100 的带坐标网格上取一个点。点的横坐标是否为偶数与纵坐标是否为偶数无关。
  2. 连续两次投掷骰子,这两次投掷的结果无关。

全概率法则

有时直接求一个事件发生的概率比较困难,这时我们可以将事件空间划分成若干不相交的部分,并求这个事件在这些部分下的条件概率。

上面的描述可能不甚清晰,我们接下来用数学语言来进一步完善称述。对于样本空间 Ω ,定义它的一个 划分 为满足下面条件的集族 {Bi}

  • Bi 覆盖了样本空间iBi=Ω
  • {Bi} 互不相交 :对于任意两个 BiBjBiBj=

而事件 A 发生的概率,可以拆分为 A 在各个 Bi 下发生的条件概率:

P(A)=iP(A|B)P(B)

贝叶斯定律

先验概率和后验概率

先验概率是指在我们获得任何新数据或证据之前,对某一事件或假设的概率估计。它通常基于先前的知识、经验或假设。

后验概率是指在观察到新数据或证据后,对某一事件或假设的概率进行更新后的估计。它是贝叶斯推断的核心结果。

例如,在投掷一个骰子时,我们认为结果是 2 的概率是 16 ;但当知道结果是偶数时,概率就变成了 13 。在这个例子中,前后两个概率就分别是先验概率和后验概率。

贝叶斯定律

贝叶斯定律的核心是,给出一个先验概率 P(H) ,在已知信息 E 的情况下求后验概率 P(H|E)

回顾上文提到的一般乘法法则,可以发现:

P(AB)=P(A|B)P(B)=P(B|A)P(A)

因此 P(A|B)P(B)=P(B|A)P(A) 。移项可以得到:

P(A|B)=P(B|A)P(A)P(B)

一个广为流传的例子如下:

已知有一种疾病,发病率是 0.1% 。针对这种疾病的测试非常准确:

  • 如果有病,则准确率是 99%(即有 1% 未检出阳性);
  • 如果没有病,则误报率是 2%(即有 2% 误报为阳性)。
    现在,如果一个人测试显示阳性,请问他患病的概率是多少?

已知条件可以写成下面的样子:

P()=0.001P(|)=0.99P(|)=0.02

要求 P(|) 。根据贝叶斯定律, P(|)=P(|)P()P() ,所有只需要求出 P() 就行了。

P()=P(|)P()+P(|)P()=(0.990.001)+(0.020.999)=0.02097

代入可得 P(|)=0.0472

更一般的贝叶斯概率

Ai 是样本空间的一个划分时,有 P(B)=iP(B|Ai)P(Ai) 。代入贝叶斯定理可以得到:

P(X|B)=P(B|X)P(X)iP(B|Ai)P(Ai)

而在连续情况下,这个公式就变成了:

P(X|B)=P(B|X)P(X)P(B|Aτ)P(Aτ)dAτ

此作者没有提供个人介绍。
最后更新于 2025-04-25