機率論(英語:Probability theory)是研究概率、隨機性及不確定性等現象的數學分支。概率论主要研究对象为随机事件、随机变量以及随机过程。
对于随机事件是不可能准确预测其结果的,然而对于一系列的独立随机事件——例如掷骰子、扔硬幣、抽撲克牌以及輪盤等,会呈现出一定的、可以被用于研究及预测的规律,两个用来描述这些规律的最具代表性的数学结论分别是大數法則和中心极限定理。
作为统计学的数学基础,概率论对诸多涉及大量数据定量分析的人类活动极为重要[1],概率论的方法同样适用于其他方面,例如对只知道系统部分状态的复杂系统的描述——统计力学,而二十世纪物理学的重大发现是以量子力学所描述的原子尺度上物理现象的概率本质[來源請求]。
數學家和精算師認為概率是在0至1閉區間内的數字,指定給一發生與失敗是隨機的「事件」。概率 P ( A ) {\displaystyle P(A)} 根據概率公理來指定給事件 A {\displaystyle A} 。
一事件 A {\displaystyle A} 在一事件 B {\displaystyle B} 確定發生後會發生的概率稱為 B {\displaystyle B} 給之 A {\displaystyle A} 的條件概率;其數值為 P ( B ∩ ∩ --> A ) P ( B ) {\displaystyle {P(B\cap A) \over P(B)}} 。若 B {\displaystyle B} 給之 A {\displaystyle A} 的條件概率和 A {\displaystyle A} 的概率相同時,則稱 A {\displaystyle A} 和 B {\displaystyle B} 為獨立事件。且 A {\displaystyle A} 和 B {\displaystyle B} 的此一關係為對稱的,這可以由一同價敘述:「當 A {\displaystyle A} 和 B {\displaystyle B} 為獨立事件時, P ( A ∩ ∩ --> B ) = P ( A ) P ( B ) {\displaystyle P(A\cap B)=P(A)P(B)} 。」中看出。
概率論中的兩個重要概念為隨機變數和隨機變數的概率分佈兩種。
人們對概率總是有一點觸摸不清的感覺,而事實上也有很多看似奇異的結果:
作为数学统计基础的概率论的创始人分别是法国数学家帕斯卡和子碩,其可追溯到公元17世纪。当时的法国宫廷贵族里盛行着掷骰子游戏,游戏规则是玩家连续掷4次骰子,如果其中没有6点出现,玩家赢,如果出现一次6点,则庄家(相当于现在的赌场)赢。按照这一游戏规则,从长期来看,庄家扮演赢家的角色,而玩家大部分时间是输家,因为庄家总是要靠此維生的,而当时人们也接受了这种现象。
后来为了使游戏更刺激,游戏规则发生了些许变化,玩家这回用2个骰子连续掷24次,不同时出现2个6点,玩家赢,否则庄家赢。当时人们普遍认为,2次出现6点的概率是一次出现6点的概率的1 / 6,因此6倍于前一种规则的次数,也既是24次赢或输的概率与以前是相等的。然而事实却並非如此,从长期来看,这回庄家处于输家的状态,于是他们去请教当时的数学家帕斯卡,求助其对这种现象作出解释。
其他对概率论的发展作出重要贡献的人还有荷兰物理、数学家惠更斯,瑞士物理、数学家伯努利,法国数学家棣莫弗,法国数学、天文学家拉普拉斯,德国数学家高斯,法国物理、数学家泊松,意大利数学、医学家卡尔达诺以及苏联数学家柯爾莫哥洛夫。
在一次随机试验中可能发生的不能再细分的结果被称为基本事件,或者称为单位事件,用 E {\displaystyle E} 表示。在随机试验中可能发生的所有单位事件的集合称为事件空间,用 S {\displaystyle S} 来表示。例如在一次掷骰子的随机试验中,如果用获得的点数来表示单位事件,那么一共可能出现 6 个单位事件,则事件空间可以表示为 S = { 1 , 2 , 3 , 4 , 5 , 6 } {\displaystyle S=\{1,2,3,4,5,6\}} 。
上面的事件空间是由可数有限单位事件组成,事实上还存在着由可数无限以及不可数单位事件组成的事件空间,比如在一次获得正面朝上就停止的随机掷硬币试验中,其事件空间由可数无限单位事件组成,表示为: S = {\displaystyle S=} { 正,反正,反反正,反反反正,反反反反正,···},注意到在这个例子中"反反反正"是单位事件。将两根筷子随意扔向桌面,其静止后所形成的交角假设为 α α --> {\displaystyle \alpha } ,这个随机试验的事件空间的组成可以表示为 S = { α α --> | 0 ∘ ∘ --> ≤ ≤ --> α α --> < 180 ∘ ∘ --> } {\displaystyle S=\{\alpha |0^{\circ }\leq \alpha <180^{\circ }\}} 。
随机事件是事件空间 S {\displaystyle S} 的子集,它由事件空间 S {\displaystyle S} 中的单位元素构成,用大写字母 A , B , C ⋯ ⋯ --> {\displaystyle A,B,C\cdots } 表示。例如在掷两个骰子的随机试验中,设随机事件 A {\displaystyle A} = “获得的点数和大于10”,则 A {\displaystyle A} 可以由下面 3 个单位事件组成: A = { ( 5 , 6 ) , ( 6 , 5 ) , ( 6 , 6 ) } {\displaystyle A=\{(5,6),(6,5),(6,6)\}} 。
如果在随机试验中事件空间中的所有可能的单位事件都发生,这个事件被称为 必然事件,表示为 S ⊂ ⊂ --> S {\displaystyle S\subset S} ;相应的如果事件空间里不包含任何一个单位事件,则称为不可能事件,表示为 ∅ ∅ --> ⊂ ⊂ --> S {\displaystyle \varnothing \subset S} 。
因为事件在一定程度上是以集合的含义定义的,因此可以把集合计算方法直接应用于事件的计算,也就是说,在计算过程中,可以把事件当作集合来对待。
在轮盘游戏中假设 A {\displaystyle A} 代表事件「球落在红色区域」, B {\displaystyle B} 代表事件"球落在黑色区域",因为事件 A {\displaystyle A} 和 B {\displaystyle B} 没有共同的单位事件,因此可表示为
A ∩ ∩ --> B = ∅ ∅ --> {\displaystyle A\cap B=\varnothing }
注意到事件 A {\displaystyle A} 和 B {\displaystyle B} 并不是互补的关系,因为在整个事件空间 S {\displaystyle S} 中还有一个单位事件「零」,其即不是红色也不是黑色,而是绿色,因此 A , B {\displaystyle A,B} 的补集应该分别表示如下:
A ¯ ¯ --> = S ∖ ∖ --> A = B ∪ ∪ --> { 0 } {\displaystyle {\bar {A}}=S\setminus A=B\cup \left\{0\right\}} B ¯ ¯ --> = S ∖ ∖ --> B = A ∪ ∪ --> { 0 } {\displaystyle {\bar {B}}=S\setminus B=A\cup \left\{0\right\}}
传统概率的定义是由法国数学家拉普拉斯提出的。如果一个随机试验所包含的单位事件是有限的,且每个单位事件发生的可能性均相等,则这个随机试验叫做拉普拉斯试验。在拉普拉斯试验中,事件 A {\displaystyle A} 在事件空间 S {\displaystyle S} 中的概率 P ( A ) {\displaystyle P(A)} 为:
例如,在一次同时掷一个硬币和一个骰子的随机试验中,假设事件 A {\displaystyle A} 为获得国徽面且点数大于 4 ,那么事件 A {\displaystyle A} 的概率应该有如下计算方法: S = {\displaystyle S=} { ( 国徽,1 点 ),( 数字,1 点 ),( 国徽,2 点 ),( 数字,2 点 ),( 国徽,3 点 ),( 数字,3 点 ),( 国徽,4 点 ),( 数字,4 点 ),( 国徽,5 点 ),( 数字,5 点 ),( 国徽,6 点 ),( 数字,6 点 ) }, A {\displaystyle A} ={( 国徽,5 点 ),( 国徽,6 点 )},按照拉普拉斯定义, A {\displaystyle A} 的概率为,
注意到在拉普拉斯试验中存在着若干的疑问,在现实中是否存在着其单位事件的概率具有精确相同的概率值的試驗? 因为我们不知道,硬币以及骰子是否完美,即骰子制造的是否均匀,其重心是否位于正中心,以及轮盘是否倾向于某一个数字。 尽管如此,传统概率在实践中被广泛应用于确定事件的概率值,其理论根据是: 如果没有足够的论据来证明一个事件的概率大于另一个事件的概率,那么可以认为这两个事件的概率值相等。
如果仔细观察这个定义会发现拉普拉斯用概率解释了概率,定义中用了相同的可能性 ( 原文是 également possible )一词,其实指的就是"相同的概率"。这个定义也并没有说出,到底什么是概率,以及如何用数字来确定概率。在现实生活中也有一系列问题,无论如何不能用传统概率定义来解释,比如,人寿保险公司无法确定一个 50 岁的人在下一年将死去的概率。
继传统概率论之后,英国逻辑学家約翰·維恩和奥地利数学家理查德提出建立在頻率理论基础上的统计概率。他们认为,获得一个事件的概率值的唯一方法是通过对该事件进行 100 次,1000 次或者甚至 10000 次的前后相互独立的 n {\displaystyle n} 次随机试验,针对每次试验均记录下绝对频率值 h n {\displaystyle h_{n}} (A)和相对频率值 f n {\displaystyle f_{n}} (A),随着试验次数 n {\displaystyle n} 的增加,会出现如下事实,即相对频率值会趋于稳定,它在一个特定的值上下浮动,也即是说存在着一个极限值 P ( A ) {\displaystyle P(A)} ,相对频率值趋向于这个极限值。这个极限值被称为统计概率,表示为:
例如,若想知道在一次掷骰子的随机试验中获得 6 点的概率值可以对其进行 3000 次前后独立的扔掷试验,在每一次试验后记录下出现 6 点的次数,然后通过计算相对频率值可以得到趋向于某一个数的统计概率值。
上面提到的这个有关相对频率的经验规律是大数定律在现实生活中的反映,大数定律是初等概率论的基础。统计概率在今天的实践中依然具有重要意义,特别是在初等概率论及数理统计等学科中。
与初等概率论相对的,是“现代概率论”。因测度论的研究与发展,现代概率论得以公理化。一些曾经无法用初等概率论解释的概念因此得以用公理化的语言进行解释,可以说现代概率论以测度论为理论基础终于得以完善,完成了其现代化进程。现代概率论由前苏联数学家柯尔莫哥洛夫于1933年建立公理化。
如果一个函数 P : S → → --> R , A ↦ ↦ --> P ( A ) {\displaystyle P:S\to \mathbb {R} ,\ A\mapsto P(A)} 指定给每一个事件空间 S {\displaystyle S} 中的事件 A {\displaystyle A} 一个实数 P ( A ) {\displaystyle P(A)} ,并且其满足下面的 3 个公理,那么函数 P {\displaystyle P} 叫做概率函数,相应的 P ( A ) {\displaystyle P(A)} 叫做事件 A {\displaystyle A} 的概率。
n {\displaystyle n} 个事件 H 1 , H 2 , . . . H n {\displaystyle H_{1},H_{2},...H_{n}} 两两互斥,且共同组成整个事件空间 S {\displaystyle S} ,即 H i ∩ ∩ --> H j = ∅ ∅ --> {\displaystyle H_{i}\cap H_{j}=\varnothing } , ( i ≠ ≠ --> j ) {\displaystyle (i\neq j)} 以及 H 1 ∪ ∪ --> H 2 ∪ ∪ --> . . . ∪ ∪ --> H n = S {\displaystyle H_{1}\cup H_{2}\cup ...\cup H_{n}=S} 这时 A {\displaystyle A} 的概率可以表示为,
证明:
A = ( A ∩ ∩ --> H 1 ) ∪ ∪ --> ( A ∩ ∩ --> H 2 ) ∪ ∪ --> … … --> ∪ ∪ --> ( A ∩ ∩ --> H n ) {\displaystyle A=(A\cap H_{1})\cup (A\cap H_{2})\cup \ldots \cup (A\cap H_{n})} 按照公理 3 ,有 P ( A ) = P ( A ∩ ∩ --> H 1 ) + P ( A ∩ ∩ --> H 2 ) + … … --> + P ( A ∩ ∩ --> H n ) {\displaystyle P(A)=P(A\cap H_{1})+P(A\cap H_{2})+\ldots +P(A\cap H_{n})} 根据乘法法则, P ( A ∩ ∩ --> H j ) = P ( A | H j ) ⋅ ⋅ --> P ( H j ) {\displaystyle P(A\cap H_{j})=P(A|H_{j})\cdot P(H_{j})} 因此有, P ( A ) = P ( A | H 1 ) ⋅ ⋅ --> P ( H 1 ) + … … --> + P ( A | H n ) ⋅ ⋅ --> P ( H n ) {\displaystyle P(A)=P(A|H_{1})\cdot P(H_{1})+\ldots +P(A|H_{n})\cdot P(H_{n})} P ( A ) = ∑ ∑ --> j = 1 n P ( A | H j ) ⋅ ⋅ --> P ( H j ) {\displaystyle P(A)=\sum _{j=1}^{n}P(A|H_{j})\cdot P(H_{j})}
例如,一个随机试验工具由一个骰子和一个柜子中的三个抽屉组成,抽屉 1 里有 14 个白球和 6 个黑球,抽屉 2 里有 2 个白球和 8 个黑球,抽屉 3 里有 3 个白球和 7 个黑球,试验规则是首先掷骰子,如果获得小于 4 点,则抽屉 1 被选择,如果获得 4 点或者 5 点,则抽屉 2 被选择,其他情况选择抽屉 3 。然后在选择的抽屉里随机抽出一个球,最后抽出的这个球是白球的概率是:
P(白)=P(白|抽1)·P(抽1)+P(白|抽2)·P(抽2)+P(白|抽3)·P(抽3)
从例子中可看出,完全概率特别适合于分析具有多层结构的随机试验的情况。
贝叶斯定理由英国数学家托马斯·贝叶斯 ( Thomas Bayes 1702-1761 ) 发展,用来描述两个条件概率之间的关系,比如 P(A|B) 和 P(B|A)。按照定理 6 的乘法法则,P(A∩B)=P(A)·P(B|A)=P(B)·P(A|B),可以立刻导出贝叶斯定理:
例如:一座别墅在过去的 20 年里一共发生过 2 次被盗,别墅的主人有一条狗,狗平均每周晚上叫 3 次,在盗贼入侵时狗叫的概率被估计为 0.9,问题是:在狗叫的时候发生入侵的概率是多少?我们假设 A {\displaystyle A} 事件为狗在晚上叫, B {\displaystyle B} 为盗贼入侵,则 P ( A ) = 3 / 7 {\displaystyle P(A)=3/7} , P ( B ) {\displaystyle P(B)} =2/(20·365.25)=2/7305,P(A | B) = 0.9,按照公式很容易得出结果: P ( B | A ) = 0.9 ⋅ ⋅ --> 2 7305 ⋅ ⋅ --> 7 3 = 0.0005749486653... {\displaystyle P(B\vert A)=0.9\cdot {\frac {2}{7305}}\cdot {\frac {7}{3}}=0.0005749486653...}
另一个例子,现分别有 A {\displaystyle A} , B {\displaystyle B} 两个容器,在容器 A {\displaystyle A} 里分别有 7 个红球和 3 个白球,在容器 B {\displaystyle B} 里有 1 个红球和 9 个白球,现已知从这两个容器里任意抽出了一个球,且是红球,问这个红球是来自容器 A {\displaystyle A} 的概率是多少?
假设已经抽出红球为事件 B {\displaystyle B} ,从容器 A {\displaystyle A} 里抽出球为事件 A {\displaystyle A} ,则有: P ( B ) {\displaystyle P(B)} = 8 / 20, P ( A ) {\displaystyle P(A)} = 1 / 2, P ( B | A ) {\displaystyle P(B|A)} = 7 / 10,按照公式,则有: P ( A | B ) = 7 10 ⋅ ⋅ --> 1 2 ⋅ ⋅ --> 20 8 = 7 8 {\displaystyle P(A\vert B)={\frac {7}{10}}\cdot {\frac {1}{2}}\cdot {\frac {20}{8}}={\frac {7}{8}}}
虽然概率论最早产生于17世纪,然而其公理体系只在20世纪的20至30年代才建立起来并得到迅速发展,在过去的半个世纪里概率论在越来越多的新兴领域显示了它的应用性和实用性,例如:物理、化学、生物、医学、心理学、社会学、政治学、教育学,经济学以及几乎所有的工程学等领域。特别值得一提的是,概率论是今天数理统计的基础,其结果被用做问卷调查的分析资料或者对经济前景进行预测。
Lokasi Pengunjung: 3.22.248.132