秒懂数学 2020-05-05
本节内容主要可分为
概率论是一门数学分支,同数学科目的其他分支一样,是建立在一些公理上的严格的数学体系,其研究的主要对象是随机变量、随机分布和随机过程。对于随机事件是不可能准确预测其结果的,但是我们可以描述其规律,分别是大数定理和中心极限定理,统计学正是建立在这个基础之上的。
概率是一个生活中常见的词汇,笼统地说来很容易理解,但若从理论或者从哲学地高度去分析,就可以提出一系列问题,具体可参考测度学,在此不给出一个定义,直接从一些实例中理解:
以下对于相关概念做一些解释:
古典概型可以说是我们生活中最为常见、也是最好理解的概率场景。其核心在于假定试验中所有结果出现的可能性是相等的,即上述所谓的等可能性,而古典概率的计算主要基于排列组合。在《A Fist Course in Probability》中第一章就讲排列组合,在此给出基本公式。
古典概型中涉及到一些计数公式;原以为除了在概率论的考试中涉及以后不会遇到,没想到后来一次通选课的考试居然也涉及到了;在此补充。
- 高中时候讲到的分类的加法原理、分步骤的乘法原理
- 有重复的排列数:n 种球放回取 m 次,共 \(n^m\)
- 排列数:无放回取 m 次,共 \(A_n^m={n!\over (n-m)!}\)
- 组合数:n 种球无放回取 m 次,不计顺序,共 \(C_n^m=(\begin{matrix}n\\m\end{matrix})={n!\over m!(n-m)!}\)
- 分组方式数:n 个不同元素分为有顺序的 k 组,共 \((\begin{matrix}n\\ n_1, ...,n_k\end{matrix})={n!\over n_1!...n_k!}\) 。形式上看是组合数的推广,后者可以看做是特例,其关注的是两组中的一组。直观的对于公式的理解:n 个不同元素排列共 \(n!\) 种可能,将依次的 \(n_1,...,n_k\) 个元素认为是一组的,顺序无关,所以分母上除以各自的组内排列的可能。再次注意,组间是有顺序的。如 5 个元素分为 \((1,2,2)\) 三组,不讲顺序,则还要在公式上除以 2。
- 可重复分组数:n 个球有放回取 m 次,结果不计顺序,共 \(C_{n+m-1}^{m}=C_{n+m-1}^{n-1}\) 。这里和上一中情况的区别在于取到的 m 个球随机。需要换一种想法:和每个球标号序号,然后把 m 个球按序号排列,显然就变成了有序的 n 组,其中有 \(n-1\) 个「空格」;反过来,我们还没有取出球,但我们知道了最终的结果是 \(n-1\) 个分隔符分割了 m 个球(高中时候好像是用 0 和 1 来示意),也就是从 \(n+m-1\) 个元素中选 \(n-1\) 个分隔符,所以是 \(C_{n+m-1}^{m}=C_{n+m-1}^{n-1}\) 。注意,这里的每一个分组是非等可能的(前面的分组方式数按这种定义是等可能的)。
上述已对随机事件有所介绍,对于任一事件,我们想要用概率的方式去描述它。但是对于我们感兴趣的复杂事件来说,直接计算其概率是困难的,因此我们希望能够利用复杂事件与简单事件之间的关系,以便利用简单事件的概率去计算复杂事件的概率。正如微积分中,利用导数所满足的法则,可据此计算出复杂函数的导数,若直接利用定义来计算则太过复杂。以下对于事件的关系和运算做简单描述,很多是符合直觉的,注意这部分可以从集合论的角度来考虑。
字面理解,若A蕴含B,也可说为B包含A,记为 \(A\subset B\),这意味着A发生则B一定发生,从集合论的角度来说A是B的子集,从韦恩图上来看A被B所“包围”。
若A和B不能在同一次试验内都发生,则称它们为互斥的。对立事件是一种特殊的互斥事件,即B是A的补集,记作 $ B=\bar{A} $ 。
对于两事件A和B,定义事件和\(C = \{A发生,或B发生\}\),记作 \(A\cup B\), 或 $A+B $,即为代表两事件的集合的并集,通过韦恩图来看更为直观。
概率的加法定理:对于互斥事件,我们有,若干互斥事件之和的概率,等于各事件概率之和。即\(P(A_1+A_2+…)=P(A_1 )+P(A_2 )+…\)
定义事件积\(C = \{A,B都发生\}\),记为 \(A\cap B\) 或 $AB $。
定义事件差 \(C = \{A发生,B不发生\}\),记为 \(A?B\) 。
容易看出上述定义的事件关系及其运算满足以下性质。同时,虽然上面借用了算术中的相关名词,算术法则不一定能用于计算事件运算(因为本质上可以说是集合之间的关系)。注:可以根据韦恩图进行直观的理解不需要死记硬背。
$A\cup B = B\cup A,AB=BA $
$A\cup B\cup C = (A\cup B)\cup C = A \cup (B\cup C), ABC = (AB)C = A(BC) $
$(A\cup B)C = AC\cup BC $
$(AB)\cup C = (A\cup C)(B\cup C) $
$\overline{A\cup B} =\bar{A}\cap\bar{B} $
$\overline{A\cap B} = \bar{A} \cup \bar{B} $
此公式可以推广到n个事件:事件和的非等于事件非的积;事件积的非等于事件非的和。
当时怎么没有介绍概率的加法公式,补充如下:
\[P(A\cup B)=P(A)+P(B)-P(AB)\]其推广,Jordan 公式
\[P(\bigcup^n_{i=1}A_i)=\sum_{k=1}^n(-1)^{k-1}p_k\]其中
\[p_k=\sum_{1\le j_1\le j_2\le...\le n}P(A_{j_1}...A_{j_k})\]可以根据韦恩图直观理解。
条件概率是概率论中非常重要的概念,此后随机变量的条件分布等一系列知识点需要建立在对于条件概率的理解上。一般来讲,条件概率就是在附加一定条件之下所计算的概率。严格来说,现实中的任何概率都是条件概率:假定你在实验室投掷硬币,出现正面的频率约为1/2,你只能说在此时此地,在这种试验条件下,可以认为这枚硬币是均匀的,试验环境即为“条件”。形式化的定义:设有两事件A,B,在给定B发生的条件下A的条件概率记为 \(P(A|B)\) :
其中,当\(P(B)=0\)时,上式无意义,因此在一般的定义中还要求\(P(B)\)不为零。当然,在高等概率论中也会给出在\(P(B)=0\)时概率的定义,在此不表。
一般情况下,A的无条件概率和在给定B发生之下的条件概率是有差异的,这反映了两者之间的关联。例如,若 $P(A|B)>P(A) $,则B的发生使A发生的可能性增加的,B促进了A的发生。反之,若 $P(A|B)=P(A) $,则B的发生与否与A发生的可能性无关,这就称为两事件独立。因此上式即可作为事件独立的定义。然而,根据条件概率的定义,上式等价于:
$P(AB)=P(A)P(B) $
在这条式子中,A和B是对称的,即“A和B相互独立”,更好得反映了事件独立的概念,因此在一般的教材中采用此作为独立性定义。推广到多个事件,其独立性定义如下:设 $A_1,A_2,...; $为有限或无限个事件,若从中任意取出有限个事件,都有:
则称事件 \(A_1,A2,...\)(相互)独立。注意,这个定义与由条件概率出发的定义等价:\(P(A_{i_{1}}|A_{i_{2}}...A_{i_{m}}) = P(A_{i_{1}})\) 对于任意的 $A_{i_1} $都成立。从这里也可以看到,n个事件独立和此n个事件两两独立是不同的,后者只能保证在“简单条件”下某一事件的概率不受影响,但不意味着其他任意多个事件的发生与否与它是否有关联。
在实际运用中,虽然我们常用两种等价定义来形式化得证明事件的独立性,但在更多的情况中,我们假定事件满足独立性,然后用\(P(A_{i_{1}}A_{i_{2}}...A_{i_{m}}) = P(A_{i_{1}})P(A_{i_{2}})...P(A_{i_{m}})\)式,从简单事件的概率出发计算事件积的概率。因此,从另一个角度出发来看定义式,则可认为是独立事件事件积的乘法公式。
对于一组事件 \(B_1,B_2,...\) 来说,若它们两两互斥,并且在每次试验中至少发生一个(事件积为空,概率之和为1),则称这组事件为一个“完备事件群”。形象地理解,这些事件对于所有可能发生的情况构成了一个分割,用集合论或文氏图来理解更为直观。例如,一个事件B和它的对立事件即构成完备事件群。考虑任一事件A, $A=A\Omega =AB_1 +AB_2 + ... $ ,因 $B_i $两两互斥,可见 \(AB_i\) 也两两互斥,因此有 \(P(A)= P(AB_1) +P(AB_2) + ...\) ,再由条件概率公式,
称为全概率公式,即全部概率被分成许多部分之和,因此,在现实中,若某一事件A经常伴随 \(B_i\) 发生,我们可以构造一组 \(B_i\) 来计算A的概率。
从另一个角度来理解,可以把 \(B_i\) 看作导致事件 \(A\) 发生的一种可能途径。对不同途径,A发生的概率即条件概率各各不同,而采取哪个途径却是随机的。因此对于所有可能的途径 $ P(B_i)$ 作加权平均。
特别的, \(A,\bar A\) 构成一个完备事件组,于是 \(P(B)=P(A)P(A|B)+P(A)P(A|\bar B)\)
补充一道题:证明 n 个签中有 m 个为目标,无放回抽样,则每一次「中签」的概率均为 \(m/n\) 。
记抽中这一事件为 \(A_j\)。下用归纳法证明。首先,必有 \(P(A_1)=m/n\);假设上面的概率公式在 \(j-1\) 时成立,则对于第 j 次抽样,我们用全概率公式:
\[P(A_j)=P(A_1)P(A_j|A_1)+P(\overline{A_1})P(A_j\overline {A_1})\]这样,后面的两个条件概率就转化成了 \(j-1\) 的形式,代入假设中的公式(分别为 \(m-1\over n-1\), \(m \over n-1\))即可得 \(P(A_j)={m\over n}\)
由全概率公式可得著名的贝叶斯公式:
刚看到这个公式有点绕,似乎只是一个数学变换,更重要的是理解其意义。在等式的右边,我们已知了 \(P(B_i)\) 和 $P(A|B_i) $,而在等式右边,我们希望得到的是 $P(B_i|A) $,也就是在A发生的情况下,新的信息之下我们对于事件 \(B_i\) 的可能性有了新的认识。
如果我们把A看成“结果”,把看成导致者结果的可能“原因”,则可形象地把全概率公式看作成为“由原因推结果”,而贝叶斯公式作用在于“由结果推原因”:现在一个结果A发生了,在众多可能的原因中,哪一个导致了结果。
好的说了这么多也不知道有没有表达清楚,反正我一开始学的时候一脸懵逼,还是看一个例子理解一下:
一个有趣的结论:检测结果为阳性的患者带菌的可能性不到0.4,理由很简单:因为人群中带菌率很低,即使误检的可能性很低,因为其基数很大,所以检测结果为阳性的人中任有很大一部分是这些误检患者。
从这个例子也可以看出贝叶斯公式在统计学之中的重要意义。在统计学中,我们搜集相关的数据,希望能找到所感兴趣问题的答案(由结果找原因),然而,在此之前,我们需要对其有一个大致的估计(即先验概率),然后根据所得到的信息更新我们的估计(即后验概率)。事实上,根据这个公式的思想发展了一整套统计推断方法,叫做“贝叶斯统计”。
以下补充关于贝叶斯公式的论述
贝叶斯公式在之后的无论什么课程中真的用的超级多……
另外,在《概率与统计》一书中,「补充知识」部分提到了和概率相关的一些内容,有助于对其理解,在此列出。
分为四部分:1. 关于概率论的起源;2. 几何概型;3. 熵;4. 概率的另类应用(概率方法解决确定性问题)。
信息量;熵;熵定理(各事件等概率是熵最大为\(log(n)\) );熵增加原理