• 概率,又称或然率,几率,是表示某种情况(事件)出现可能性大小的一种数量指标,介于01之间
  • 事件是对某(种)些情况的“陈述”
    • 它是否发生,要到有关的“试验”有了结果才知道
    • 这里的试验,对人而言,只是一个观察者,记录试验结果,试验的全部可能结果在试验前就明确的,当然我们可能不能确切知道一个试验的全部结果,但可以知道它不会超过某个范围,可以用这个范围来表示试验的全部可能结果,甚至取$(-\infty,+\infty)$ 也可以。尽管我们明知一些结果是不会出现。这样的抽象有很大的好处。
    • 由此,我们可以定义所谓“陈述”是什么,即事件是什么
      • 事件是试验的全部可能结果中的一个确定的部分。
  • 例子:
    • 试验:观察明天下午6时的天气状况(假设以降雨量$x$为衡量)
    • 试验的全部可能结果:$x\in[0,+\infty)$
    • 事件:$A=\{明天下午下雨100mm\}$
  • 例子:
    • 试验:抛一枚硬币,观察掷出的点数结果
    • 试验的全部可能结果:掷出的点数为$\{1,2,3,4,5,6\}$
    • 事件:$A=\{掷出偶数点\}=(2,4,6)$
    • 如果做一次实验,丢出2点,则我们说”事件A发生了”
  • 在概率论上,把单一的实验结果叫做一个基本事件,也常称事件为“随机事件”或“偶然事件”。
    • 随机的意思是说,事件是否在某次试验中发生,取决于机遇
    • 随机事件的极端情况:必然事件和不可能事件,其概率为1和0
  • 等可能:从一个试验的条件和实施方法上看,我们找不到任一可能结果比其他可能结果更容易发生,只好认为所有可能结果在试验中有同等可能的出现机会,称这样的试验结果是”等可能的“
  • 古典概率:设一个试验有$N$个等可能的结果,事件$E$包含其中$M$个,则事件$E$的概率为$P(E)=M/N$.
    • 古典概率是客观的,因为等可能的结果是基于客观事实(比如骰子是绝对均匀且严格正六面体),不是主观设想的
    • 古典概率的计算基于排列组合。
    • 古典概率的局限性:只能用于全部试验结果为有限个,且等可能性成立的情况
  • 几何概率:此时试验结果是无限多个的,等可能性也引申到了等面积,体积,长度等
  • 概率的统计定义:
    • 一个事件出现的可能性大小(概率),用在同等条件下的大量重复试验中出现的频繁程度(频率)来刻画。
    • 频率是事件概率的估计,更精确地说概率就是试验次数无限增大时频率的极限
    • 这个定义的重要性在于
      • 提供了一种估计概率的方法
      • 提供一种检验理论或假设正确与否的准则:假设有一定的理论和假设,算出事件的概率,可以通过多次重复试验来观察事件的频率,如果与算出的概率相去甚远,则理论可能有误
  • 概率的公理化定义:给出了一些概率所具有的一般性质
  • 古典概率计算
  • 事件的关系:同一试验下的两事件$A,B$
    • $B$包含$A$:
      • 从事件发生观点:事件A发生时,B必发生
      • 从试验结果观点:A的试验结果一定包含在B中
      • 注意:只要事件A的一个试验结果发生,则事件A发生
      • 比如:A是丢到偶数点,结果是2,则A发生。而B如果定义为丢到的点数大于2。则B包含A!
    • B=A:两个事件相互包含
      • 若A发生,B一定发生。反之也成立时。
    • A,B互斥:
      • 试验结果无交集
      • 两事件至多发生一个
    • A,B对立
      • 两事件不同时发生,但一方不发生,另一方一定发生
    • 事件的和,并:A,B至少发生一个
      • 注意定义事件$C=\{A+B\}=\{A,B至少发生一个\}​$ 只是一种陈述,不是说A,B肯定至少发生一个。必须要看试验结果。如果实验结果是A发生,则说“事件C发生了”。
    • 事件的积,交:A,B同时发生
      • $C=\{A\cdot{B}\}=\{A,B同时发生\}$
    • 事件的差:A发生,B不发生
      • $C=\{A-B\}=\{A发生,B不发生\}$
  • 概率的加法公理:若干两两互斥事件之和的概率等于各事件概率之和

    • $P(A_1+A_2+…)=P(A_1)+P(A_2)+…​$
  • 条件概率:
    • 条件概率就是附加一定条件下计算的概率
    • 这个条件不是指决定实验的那些基础条件(比如正六面体),而是另外附加的条件
    • 所谓的条件的形式可以归结为:已知某某事件发生的情况下!!!
    • 在给定B发生的条件下,A的条件概率为:$P(A|B)=P(AB)/P(B)$
      • 即AB同时发生的概率除以B发生的概率
      • 计算时,可以根据公式来,也可以根据实际意义来
  • 事件的独立:若$P(A)=P(A|B)$ ,即B的发生与否对A的发生毫无影响,则称A,B独立
    • 此时有:$P(AB)=P(A)P(B)$ 概率的乘法定理!
    • 两事件满足上式与两事件独立等价
    • 我们实际上不用上式判断是否等价,而是根据事件的实际意义去分析两者是否有关联,从而判断是否独立,从而可以应用上式
    • 比如:两个机床的生成是彼此不相干的,所以各自生产的废品数的这类事件是独立的
    • 但是有时未经周到的直观也会造成问题
      • 例子: $B=\{至少一个骰子掷出1\}$,$A=\{三个骰子掷出点数至少有两个一样\}$
      • 初看两者独立。但是考虑$P(A|\bar{B})$ 是从5个数取3个数 ,两个点一样的概率。$P(A)$ 是从6个数取3个数,两个点一样的概率。明显有$P(A|\bar{B})>P(A)$ ,则有$P(A)>P(A|B)$
  • 多个事件独立

    • 对一系列事件,任意取出多个事件满足$P(A_1A_2…A_m)=P(A_1)P(A_2)…P(A_m)​$ 则这一系列事件相互独立
    • 同时,多个独立的事件的之积的概率=各事件概率的乘积
    • 独立事件的任一部分也独立,独立事件决定的事件也独立
      • $A,B,C,D$ 相互独立,则$A,C$ 或$B,C,D$都是相互独立的
      • $A,B,C,D$ 相互独立,则$A-C$与$B+D$ 也独立
    • 一系列事件相互独立,将里面任一部分改成对立事件时,所得事件也相互独立
    • 一些事件如果任意两个都独立,则它们两两独立
      • 相互独立,则一定两两独立(因为一个是取任意多,一个是取两个)
      • 两两独立,不一定相互独立
  • 全概率公式

    • 设$B_1,B_2,…$为有限个或无限个事件,他们任意两个都互斥($B_iB_j=\empty$),且在每次试验中至少发生一个($B_1+B_2+…=\Omega$)。这一组事件叫做完备事件群。注意任一事件与其对立事件组成一个完备事件群
    • 考虑任一事件$A​$ ,因$\Omega​$ 为必然事件,则$A=A\Omega=AB_1+AB_2+…​$ ,且$AB_1,AB_2,…​$两两互斥
      • 根据加法定理有:$P(A)=P(AB_1)+P(AB_2)+…$
      • 根据条件概率公式:$P(AB_i)=P(B)P(A|B_i)$
      • 有全概率公式:$P(A)=P(B_1)P(A|B_1)+P(B_2)P(A|B_2)+…$
    • 在复杂情况下,计算$P(A)$ 不行,但是$A$总是随着某个$B_i$ 伴出,可以构造这样的一组$B_i$ 简化计算
    • 可以把$B_i$ 看作导致$A$发生的一种可能途径,不同的$B_i$ 发生的概率$P(B_i)$ 视作权重,则$P(A)$ 是所有的$P(A|B_i)$ 的加权平均
  • 贝叶斯公式

    • 在全概率公式的假定下,有

    • 从形式上看,这个公式只是条件概率定义和全概率公式的简单推论,但其富含哲理和现实意义

    • 如果我们把$A$看做结果,把事件$B_1,B_2,…$ 看成导致这个结果的可能原因,则全概率公式是“由原因推结果”。而贝叶斯公式是“由结果推原因”。
      • 现在有一个结果A发生了,在众多可能的原因中,到底是哪一个导致了这个结果呢?
    • 在统计学上,我们依靠收集的数据($事件A$)去寻找所感兴趣问题的答案。这是一个由结果推原因的过程。称作贝叶斯统计

    • 例子:设某种病菌在人群中的带菌率为0.03。由于检测设备不完善,阳性反应不一定就带菌,带菌也不一定能被检测出阳性。假定:$P(阳性|带菌)=0.99,P(阳性|不带菌)=0.05,P(阴性|带菌)=0.01,P(阴性|不带菌)=0.95$ 若现在某人检出阳性,求其带菌的概率是多少?

      • $P(B_1)=0.03$ ,$P(B_2)=0.97$
      • $P(A|B_1)=0.99,P(A|B_2)=0.05$
      • 则$P(B_1|A)=?$