条件概率
条件概率 是已知一个事件发生时,另一个事件发生的概率。例如,在投掷一枚骰子时,我们已经知道结果是偶数,问结果是  的概率为多少,这就是一个典型的条件概率。设有事件  和  ,我们记  表示已知  发生的情况下, 发生的概率是多少。
根据直觉,我们可以预见到,在某些情况下, 。这是因为  发生这个信息会导致原本的概率分布改变。理解概率论的一个关键点在于理解概率和信息的关系:随着已知的信息越来越多,概率的分布也会随之改变,最后使得某个事件的概率为  ,而其他事件的概率为  。这一点很容易理解,因为 信息是对不确定性的消除,而概率是对不确定性的描述 ,当所有不确定都被消除后,就只剩下了一种可能。
接下来的问题是如何得到  的值。考虑概率空间  , 发生使得概率函数  变为了  。 发生意味着什么?首先,这会导致  ;其次,这个条件不会改变  的子事件之间概率之比。因此我们得到了下面的两点:
- ,因此  。
 
- 设  ,  是  的子事件,
 
从第二点可以看出,对于  的子事件, 发生只会导致他们的概率乘上同一个常数  。因为 也是自己的子事件,因此  ,那么  。
这和  又有什么关系呢?事实上, 等价于  ,我们将  分成  和  两部分,那么   。因此我们得到了条件概率的公式:
如果不考虑严谨性,还可以用文氏图来帮助理解这个公式:

乘法法则
将条件概率的公式逆用,我们可以得到下面的公式:
同时,由于  ,由对称性可知  。下文会提到,将这个公式再进一步,就得到了贝叶斯定律。
事件的独立性
两个事件独立,说明一个事件发生不会改变另一个事件发生的概率,这意味着  (当  和  相互独立时)。由于  ,因此此时  。这也意味着  发生时不会 “泄漏” 和  有关的信息。
如果已知两个事件独立,最大的好处是可以直接由他们的概率之积计算他们积事件的概率。因此我们从这一点出发,定义两个事件的独立为:
类似的,对于  个事件 ,他们独立性的定义为:
任意取出其中的  个事件  ,都有:
下面给出几个独立事件的例子:
- 在一个  的带坐标网格上取一个点。点的横坐标是否为偶数与纵坐标是否为偶数无关。
 
- 连续两次投掷骰子,这两次投掷的结果无关。
 
全概率法则
有时直接求一个事件发生的概率比较困难,这时我们可以将事件空间划分成若干不相交的部分,并求这个事件在这些部分下的条件概率。
上面的描述可能不甚清晰,我们接下来用数学语言来进一步完善称述。对于样本空间  ,定义它的一个 划分 为满足下面条件的集族  :
-  覆盖了样本空间 :
 
-  互不相交 :对于任意两个  和  , 。
 
而事件  发生的概率,可以拆分为  在各个  下发生的条件概率:
贝叶斯定律
先验概率和后验概率
先验概率是指在我们获得任何新数据或证据之前,对某一事件或假设的概率估计。它通常基于先前的知识、经验或假设。
而后验概率是指在观察到新数据或证据后,对某一事件或假设的概率进行更新后的估计。它是贝叶斯推断的核心结果。
例如,在投掷一个骰子时,我们认为结果是  的概率是  ;但当知道结果是偶数时,概率就变成了  。在这个例子中,前后两个概率就分别是先验概率和后验概率。
贝叶斯定律
贝叶斯定律的核心是,给出一个先验概率  ,在已知信息  的情况下求后验概率  。
回顾上文提到的一般乘法法则,可以发现:
因此  。移项可以得到:
这个公式可以理解为, 是知道信息 "发生" 前的先验信息,  是后验信息, " 发生" 这个信息对  概率的影响体现在因子  上。
一个广为流传的例子如下:
已知有一种疾病,发病率是  。针对这种疾病的测试非常准确:
- 如果有病,则准确率是 (即有  未检出阳性);
 
- 如果没有病,则误报率是 (即有  误报为阳性)。
现在,如果一个人测试显示阳性,请问他患病的概率是多少? 
已知条件可以写成下面的样子:
要求  。根据贝叶斯定律,  ,所有只需要求出  就行了。
而
代入可得  。
更一般的贝叶斯概率
当  是样本空间的一个划分时,有  。代入贝叶斯定理可以得到:
而在连续情况下,这个公式就变成了:
			 
	    
Comments NOTHING