[概统]本科二年级 概率论与数理统计 第三讲 离散型随机变量
[概统]本科二年级 概率论与数理统计 第三讲 离散型随机变量
- 离散型随机变量的基本概念
- Bernoulli分布与二项分布
- 超几何分布
- 几何分布
- Poisson分布
离散型随机变量的基本概念
定义3.1 离散型概率空间
假设Ω\OmegaΩ是非空的有有限个元素的集合,P(Ω)\mathcal{P}(\Omega)P(Ω)是它的幂集,简记为P\mathcal{P}P,也就是Ω\OmegaΩ的所有子集构成的集合,称(Ω,P)(\Omega,\mathcal{P})(Ω,P)是一个事件空间,Ω\OmegaΩ中的元素是基本事件,P\mathcal{P}P中的元素是事件。假设P:P→[0,1]P:\mathcal{P} \to [0,1]P:P→[0,1]是一个概率,如果
称(Ω,P,P)(\Omega,\mathcal{P},P)(Ω,P,P)是离散型概率空间。
评注
这个定义稍微有点抽象,因为我们要开始试图熟悉能够公理化表达概率的语言了。首先就是事件空间,在更高层次的概率论(硕士二年级那个系列,还没开始施工呢)中,我们会从集族与σ\sigmaσ-代数的角度来解释,但现在我们暂时叫它事件空间,在下面的例子中我们可以看到怎么用事件空间来表述我们耳熟能详的古典概型问题。然后是概率的定义,这里我们通过对P\mathcal{P}P上的映射加以三条公理来定义的概率。在古典概型中我们就做了一些叙述,事件=一些基本事件的集合,因此我们完全可以用集合来表示事件,事件的概率就可以理解成把事件映射成一个[0,1][0,1][0,1]上的数的映射,既然事件可以用集合表示,那么概率其实就是一个自变量为集合的映射。因为P\mathcal{P}P可以表示所有可能的事件,因此它可以作为概率的定义域,所以概率是从P\mathcal{P}P到[0,1][0,1][0,1]的映射。
例3.1 掷骰子
我们考虑一个最简单的问题,假设我们要讨论丢一个均匀骰子的所有可能性,则Ω\OmegaΩ表示所有可能的点数:
Ω={1,2,3,4,5,6}\Omega = \{1,2,3,4,5,6\}Ω={1,2,3,4,5,6}
它的幂集(所有子集)是
P={ϕ,{1},⋯,{6},{1,2},⋯,{1,6},{2,3},⋯,Ω}\mathcal{P}=\{\phi,\{1\},\cdots,\{6\},\{1,2\},\cdots,\{1,6\},\{2,3\},\cdots,\Omega\}P={ϕ,{1},⋯,{6},{1,2},⋯,{1,6},{2,3},⋯,Ω}
也就是幂集一共包含26=642^6=6426=64个集合,用AijA_{ij}Aij表示这些集合,iii表示集合包含的元素个数,0≤i≤60 \le i \le 60≤i≤6,j=1,⋯,C6ij=1,\cdots,C_6^ij=1,⋯,C6i。
接下来我们可以讨论在(Ω,P)(\Omega,\mathcal{P})(Ω,P)上定义概率。因为这个是一个均匀骰子,所以我们可以使用古典概型,也就是所有基本事件概率相等,即
P({1})=P({2})=⋯=P({6})=16P(\{1\})=P(\{2\})=\cdots=P(\{6\}) = \frac{1}{6}P({1})=P({2})=⋯=P({6})=61
如果是有两个元素的集合,比如{1,2}\{1,2\}{1,2},它表示投掷点数属于这个集合,也就是点数为1或者2,因此
P({1,2})=P({1})+P({2})=13P(\{1,2\})=P(\{1\})+P(\{2\}) = \frac{1}{3}P({1,2})=P({1})+P({2})=31
因此我们可以写出基于古典概型定义的概率:
P(Aij)=i6P(A_{ij}) = \frac{i}{6}P(Aij)=6i
定义3.2 离散型随机变量
称X:(Ω,P,P)→RX:(\Omega,\mathcal{P},P) \to \mathbb{R}X:(Ω,P,P)→R是一个离散型随机变量,如果(Ω,P,P)(\Omega,\mathcal{P},P)(Ω,P,P)是一个离散型概率空间。
例3.2 掷骰子续
假设在某个抽奖活动中,规则是用例3.1中的骰子投掷一次,获得的奖金是
(10+2.5×点数)×点数(10+2.5\times 点数) \times 点数(10+2.5×点数)×点数
参加这个抽奖活动需要交100元,用XXX表示参加这个抽奖活动可以获得的净收益,显然XXX是从Ω\OmegaΩ到R\mathbb{R}R的映射,于是XXX是离散型随机变量,我们用表格表示XXX这个映射
| XXX | -87.5 | -70 | -47.5 | -20 | 12.5 | 50 |
定义3.3 离散型随机变量的分布列 (probability mass function, pmf)
X:(Ω,P,P)→RX:(\Omega,\mathcal{P},P) \to \mathbb{R}X:(Ω,P,P)→R是一个离散型随机变量,称ρ:R→[0,1]\rho:\mathbb{R} \to [0,1]ρ:R→[0,1]是XXX的pmf如果:
ρ(x)=P({w:X(w)=x})\rho(x)=P(\{w:X(w)=x\})ρ(x)=P({w:X(w)=x})
其中P({w:X(w)=x})P(\{w:X(w)=x\})P({w:X(w)=x})可以简写为P(X=x)P(X=x)P(X=x)。
评注
xxx的取值范围是整个实数集,记值域为
X(Ω)={X(w):w∈Ω}X(\Omega) = \{X(w):w \in \Omega\}X(Ω)={X(w):w∈Ω}
则显然∀x∈X(Ω)C\forall x \in X(\Omega)^C∀x∈X(Ω)C, {w:X(w)=x}=ϕ\{w:X(w)=x\}=\phi{w:X(w)=x}=ϕ,即ρ(x)=0\rho(x)=0ρ(x)=0;另外,pmf满足归一性:
∑x∈X(Ω)ρ(x)=∑x∈X(Ω)P({w:X(w)=x})=P(⋃x∈X(Ω){w:X(w)=x})=P(Ω)=1\sum_{x \in X(\Omega)} \rho(x)=\sum_{x \in X(\Omega)} P(\{w:X(w)=x\}) \\ = P(\bigcup_{x \in X(\Omega)}\{w:X(w)=x\})=P(\Omega)=1x∈X(Ω)∑ρ(x)=x∈X(Ω)∑P({w:X(w)=x})=P(x∈X(Ω)⋃{w:X(w)=x})=P(Ω)=1
例3.3 掷骰子再续
现在我们试图写出XXX的pmf,
| XXX | -87.5 | -70 | -47.5 | -20 | 12.5 | 50 |
| ρ\rhoρ | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 | 1/6 |
定义3.4 离散型随机变量的期望
X:(Ω,P,P)→RX:(\Omega,\mathcal{P},P) \to \mathbb{R}X:(Ω,P,P)→R是一个离散型随机变量,ρ\rhoρ是XXX的pmf,则XXX的期望为
EX=∑x∈X(Ω)xρ(x)EX = \sum_{x \in X(\Omega)}x \rho(x)EX=x∈X(Ω)∑xρ(x)
例3.4 掷骰子最后一续
我们来计算一下XXX的期望,
EX=−87.5−70−47.5−20+12.5+506≈−27.08EX = \frac{-87.5 -70 -47.5-20+12.5+ 50 }{6}\approx -27.08EX=6−87.5−70−47.5−20+12.5+50≈−27.08
说明参加这个活动的人平均要亏27.08
例3.5
甲、乙、丙准备玩一个游戏,他们请丁来投掷一枚硬币两次,如果第一次出现正面,则甲胜,如果出现背面,则继续;如果第二次出现正面,则乙胜,否则丙获胜。他们进行了3次游戏,计算丙获胜次数的期望。
如果不按严谨的方式进行定义,我们直接进行计算,那么分析一次游戏的结果,甲获胜的概率是1/21/21/2,乙获胜的概率是1/41/41/4,丙获胜的概率是1/41/41/4,所以三次游戏中丙获胜次数的期望是3/43/43/4。
如果按严谨的方式定义,那么用Ω\OmegaΩ表示所有可能的投掷结果,用HHH表示正面,TTT表示背面,所以
Ω={(H,H),(H,T),(T,H),(T,T)}\Omega = \{(H,H),(H,T),(T,H),(T,T)\}Ω={(H,H),(H,T),(T,H),(T,T)}
比如(H,T)(H,T)(H,T)表示第一次正面,第二次反面。P\mathcal{P}P表示它的幂集,用古典概型定义概率,则
P({(H,H)})=P({(H,T)})=P({(T,H)})=P({T,T})=14P(\{(H,H)\})=P(\{(H,T)\})=P(\{(T,H)\})=P(\{T,T\}) = \frac{1}{4}P({(H,H)})=P({(H,T)})=P({(T,H)})=P({T,T})=41
这样我们就有了事件与概率空间(Ω,P,P)(\Omega,\mathcal{P},P)(Ω,P,P)。现在要进行三次游戏,于是能够描述这三次游戏的概率空间可以用集合的笛卡尔积表示
Ω×Ω×Ω\Omega \times \Omega \times \OmegaΩ×Ω×Ω
Ω×Ω×Ω\Omega \times \Omega \times \OmegaΩ×Ω×Ω上的概率就是P×P×PP \times P \times PP×P×P,比如{((H,H),(H,T),(T,T))}\{((H,H),(H,T),(T,T))\}{((H,H),(H,T),(T,T))}的概率为
P×P×P({((H,H),(H,T),(T,T))})=P({(H,H)})P({(H,T)})P({(T,T)})=1/64P \times P \times P(\{((H,H),(H,T),(T,T))\}) \\ = P(\{(H,H)\})P(\{(H,T)\})P(\{(T,T)\}) = 1/64P×P×P({((H,H),(H,T),(T,T))})=P({(H,H)})P({(H,T)})P({(T,T)})=1/64
于是三次游戏的概率空间为(Ω3,P(Ω3),P3)(\Omega^3,\mathcal{P}(\Omega^3),P^3)(Ω3,P(Ω3),P3)。下面我们定义随机变量XXX表示丙获胜的次数,则我们可以求出
{w:X(w)=x},x=0,1,2,3\{w:X(w)=x\},x=0,1,2,3{w:X(w)=x},x=0,1,2,3
然后在概率空间(Ω3,P(Ω3),P3)(\Omega^3,\mathcal{P}(\Omega^3),P^3)(Ω3,P(Ω3),P3)计算对应的概率,从而得到pmf,最后计算期望。我们称在一次游戏中统计丙的获胜情况的试验叫做Bernoulli试验,丙的获胜次数服从Bernoulli分布;称独立重复多次的游戏中统计丙获胜情况的试验叫做独立重复的Bernoulli试验或者简称独立重复试验,丙的获胜次数服从二项分布。显然如果每次都像这道题这样从定义事件空间开始,到赋予概率,再定义随机变量然后求pmf和期望就太麻烦了,于是接下来我们研究独立重复试验的一般规律。
Bernoulli分布与二项分布
Bernoulli分布用来描述Bernoulli试验的结果,Bernoulli试验指的是只有两种可能的结果的随机试验,比如明天是否下雨、新生儿是男孩还是女孩。用XXX表示Bernoulli试验的结果,X=1X=1X=1表示试验成功,X=0X=0X=0表示试验失败,记X∼Ber(p)X\sim Ber(p)X∼Ber(p),则
P(X=1)=p,P(X=0)=1−pP(X = 1) = p,\ \ P(X=0)=1-pP(X=1)=p, P(X=0)=1−p
定义3.5 方差
对于离散型随机变量XXX,称Var(X)Var(X)Var(X)是它的方差,其中
Var(X)=∑x∈X(Ω)(x−EX)2ρ(x)=EX2−(EX)2Var(X)=\sum_{x \in X(\Omega)}(x-EX)^2\rho(x)=EX^2-(EX)^2Var(X)=x∈X(Ω)∑(x−EX)2ρ(x)=EX2−(EX)2
性质3.1 EXr=pEX^r=pEXr=p,Var(X)=p(1−p)Var(X)=p(1-p)Var(X)=p(1−p)
证明
EXr=0r×(1−p)+1r×p=pVar(X)=p−p2=p(1−p)EX^r = 0^r \times (1-p) + 1^r \times p = p \\ Var(X) = p - p^2 = p(1-p)EXr=0r×(1−p)+1r×p=pVar(X)=p−p2=p(1−p)
定义3.6 将Bernoulli试验独立重复的nnn次,记XXX为成功的次数,则XXX服从二项分布,记为X∼Binom(n,p)X \sim Binom(n,p)X∼Binom(n,p),
P(X=k)=Cnkpk(1−p)n−k,k=0,1,⋯,nP(X = k) = C_n^k p^k(1-p)^{n-k},k=0,1,\cdots,nP(X=k)=Cnkpk(1−p)n−k,k=0,1,⋯,n
评注
X=Y1+Y2+⋯+Yn∼Binom(n,p)X = Y_1 + Y_2 + \cdots + Y_n \sim Binom(n,p)X=Y1+Y2+⋯+Yn∼Binom(n,p)
性质3.2 EX=npEX = npEX=np,Var(X)=np(1−p)Var(X)=np(1-p)Var(X)=np(1−p)
证明
EY=∑k=0nkP(Y=k)=∑k=0nkCnkpk(1−p)n−kEY = \sum_{k=0}^{n} kP(Y=k) = \sum_{k=0}^{n} kC_n^k p^k(1-p)^{n-k} EY=k=0∑nkP(Y=k)=k=0∑nkCnkpk(1−p)n−k
为了凑二项式定理的形式,需要处理掉组合数前的kkk,根据组合数的性质,这里面的kCnkkC_n^kkCnk可以替换为nCn−1k−1nC_{n-1}^{k-1}nCn−1k−1,因此
EY=∑k=0nnCn−1k−1pk(1−p)n−k=np∑k=1nCn−1k−1pk−1(1−p)(n−1)−(k−1)=np∑k=0n−1Cn−1kpk(1−p)(n−1)−k=npEY = \sum_{k=0}^{n} nC_{n-1}^{k-1} p^k(1-p)^{n-k} = np \sum_{k=1}^{n} C_{n-1}^{k-1} p^{k-1}(1-p)^{(n-1)-(k-1)} \\ = np \sum_{k=0}^{n-1} C_{n-1}^k p^k(1-p)^{(n-1)-k} = np EY=k=0∑nnCn−1k−1pk(1−p)n−k=npk=1∑nCn−1k−1pk−1(1−p)(n−1)−(k−1)=npk=0∑n−1Cn−1kpk(1−p)(n−1)−k=npEY2=∑k=0nk2P(Y=k)=∑k=0nk2Cnkpk(1−p)n−k=np∑k=0n−1(k+1)Cn−1kpk(1−p)(n−1)−k=np∑k=0n−1kCn−1kpk(1−p)(n−1)−k+np=np∑k=0n−1(n−1)Cn−2k−1pk(1−p)(n−1)−k+np=n(n−1)p2+npEY^2 = \sum_{k=0}^{n} k^2P(Y=k) = \sum_{k=0}^{n} k^2C_n^k p^k(1-p)^{n-k} \\ =np \sum_{k=0}^{n-1} (k+1)C_{n-1}^k p^k(1-p)^{(n-1)-k} \\=np \sum_{k=0}^{n-1} kC_{n-1}^k p^k(1-p)^{(n-1)-k} + np \\ = np \sum_{k=0}^{n-1} (n-1)C_{n-2}^{k-1} p^k(1-p)^{(n-1)-k} + np \\ = n(n-1)p^2 + np EY2=k=0∑nk2P(Y=k)=k=0∑nk2Cnkpk(1−p)n−k=npk=0∑n−1(k+1)Cn−1kpk(1−p)(n−1)−k=npk=0∑n−1kCn−1kpk(1−p)(n−1)−k+np=npk=0∑n−1(n−1)Cn−2k−1pk(1−p)(n−1)−k+np=n(n−1)p2+npVar(Y)=EY2−(EY)2=np(1−p)Var(Y) = EY^2 - (EY)^2 = np(1-p) Var(Y)=EY2−(EY)2=np(1−p)
超几何分布
定义3.7 有个箱子里有MMM个球,其中NNN个是白球,其他球是黑球,从中抽出nnn个球,其中白球的数量为XXX,则XXX服从超几何分布。
P(X=k)=CM−Nn−kCNkCMnP(X=k) = \frac{C_{M-N}^{n-k} C_N^k}{C_M^n} P(X=k)=CMnCM−Nn−kCNk
评注
下面给出一个恒等式
CMn=∑k=0nCM−Nn−kCNkC_M^n = \sum_{k=0}^{n} C_{M-N}^{n-k} C_N^k CMn=k=0∑nCM−Nn−kCNk
这个恒等式叫Vandermonde恒等式,它的证明也比较简单。考虑
(1+t)M=∑i=0MCMiti(1+t)^M = \sum_{i=0}^M C_M^i t^i (1+t)M=i=0∑MCMiti
将MMM写成M=N+(M−N)M=N+(M-N)M=N+(M−N)
(1+t)M=(1+t)N(1+t)M−N∑i=0MCMiti=(∑i=0NCNiti)(∑i=0M−NCM−Niti)(1+t)^M = (1+t)^{N}(1+t)^{M-N} \\ \sum_{i=0}^M C_M^i t^i = (\sum_{i=0}^N C_N^i t^i)(\sum_{i=0}^{M-N} C_{M-N}^i t^i) (1+t)M=(1+t)N(1+t)M−Ni=0∑MCMiti=(i=0∑NCNiti)(i=0∑M−NCM−Niti)
等式左边tnt^ntn项的系数为CMnC_M^nCMn,等式右边tnt^ntn项的系数为
∑k=0nCM−Nn−kCNk\sum_{k=0}^{n} C_{M-N}^{n-k} C_N^k k=0∑nCM−Nn−kCNk
同阶项的系数相等,因此上述恒等式成立。超几何分布的归一化条件就是以Vandermonde恒等式为基础的。
∑k=0nP(X=k)=∑k=0nCM−Nn−kCNkCMn=CMnCMn=1\sum_{k=0}^{n} P(X=k) = \sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_N^k}{C_M^n}= \frac{C_M^n}{C_M^n} = 1 k=0∑nP(X=k)=k=0∑nCMnCM−Nn−kCNk=CMnCMn=1
性质3.3
EX=NnM,EX2=nNM+Nn(N−1)(n−1)M(M−1)EX=\frac{Nn}{M},EX^2=\frac{nN}{M} + \frac{Nn(N-1)(n-1)}{M(M-1)}EX=MNn,EX2=MnN+M(M−1)Nn(N−1)(n−1)
证明
EX=∑k=0nkCM−Nn−kCNkCMnEX = \sum_{k=0}^{n} k\frac{C_{M-N}^{n-k} C_N^k}{C_M^n} EX=k=0∑nkCMnCM−Nn−kCNk
先将kCNkkC_N^kkCNk替换为NCN−1k−1NC_{N-1}^{k-1}NCN−1k−1,
EX=N∑k=0nCM−Nn−kCN−1k−1CMn=N∑k=0n−1CM−N(n−1)−kCN−1kCMn=nNM∑k=0n−1CM−N(n−1)−kCN−1kCM−1n−1=nNMEX = N \sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} = N \sum_{k=0}^{n-1} \frac{C_{M-N}^{(n-1)-k} C_{N-1}^{k}}{C_M^n} \\= \frac{nN}{M}\sum_{k=0}^{n-1} \frac{C_{M-N}^{(n-1)-k} C_{N-1}^{k}}{C_{M-1}^{n-1}} = \frac{nN}{M} EX=Nk=0∑nCMnCM−Nn−kCN−1k−1=Nk=0∑n−1CMnCM−N(n−1)−kCN−1k=MnNk=0∑n−1CM−1n−1CM−N(n−1)−kCN−1k=MnN
方差要稍微困难点,这里给出计算二阶原点矩的计算过程
EX2=∑k=0nk2CM−Nn−kCNkCMn=N∑k=0nkCM−Nn−kCN−1k−1CMn=N∑k=0nCM−Nn−kCN−1k−1CMn+N∑k=0n(k−1)CM−Nn−kCN−1k−1CMn=nNM+N(N−1)∑k=0nCM−Nn−kCN−2k−2CMn=nNM+N(N−1)∑k=0n−2CM−N(n−2)−kCN−2kCMn=nNM+Nn(N−1)(n−1)M(M−1)∑k=0n−2CM−N(n−2)−kCN−2kCM−2n−2=nNM+Nn(N−1)(n−1)M(M−1)EX^2 = \sum_{k=0}^{n} k^2 \frac{C_{M-N}^{n-k} C_N^k}{C_M^n} = N\sum_{k=0}^{n} k \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} \\ = N\sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} + N\sum_{k=0}^{n} (k-1) \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} \\ = \frac{nN}{M} + N(N-1)\sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_{N-2}^{k-2}}{C_M^n} \\ = \frac{nN}{M} + N(N-1)\sum_{k=0}^{n-2} \frac{C_{M-N}^{(n-2)-k} C_{N-2}^{k}}{C_M^n} \\ = \frac{nN}{M} + \frac{Nn(N-1)(n-1)}{M(M-1)}\sum_{k=0}^{n-2} \frac{C_{M-N}^{(n-2)-k} C_{N-2}^{k}}{C_{M-2}^{n-2}} \\ = \frac{nN}{M} + \frac{Nn(N-1)(n-1)}{M(M-1)} EX2=k=0∑nk2CMnCM−Nn−kCNk=Nk=0∑nkCMnCM−Nn−kCN−1k−1=Nk=0∑nCMnCM−Nn−kCN−1k−1+Nk=0∑n(k−1)CMnCM−Nn−kCN−1k−1=MnN+N(N−1)k=0∑nCMnCM−Nn−kCN−2k−2=MnN+N(N−1)k=0∑n−2CMnCM−N(n−2)−kCN−2k=MnN+M(M−1)Nn(N−1)(n−1)k=0∑n−2CM−2n−2CM−N(n−2)−kCN−2k=MnN+M(M−1)Nn(N−1)(n−1)
几何分布
定义3.8 几何分布记录独立重复Bernoulli试验第一次成功前失败的次数,其分布列为
P(X=k)=p(1−p)k,k=0,1,⋯P(X=k) = p(1-p)^k, k =0,1,\cdots P(X=k)=p(1−p)k,k=0,1,⋯
评注
D={D1,D2,⋯}\mathcal{D} = \{D_1,D_2,\cdots\}D={D1,D2,⋯}满足Ω=⨆i=1∞Di\Omega = \bigsqcup_{i=1}^{\infty} D_iΩ=i=1⨆∞Di以丢硬币为例,定义
Ak={w:firstHoccursafterktoss}A_k = \{w: first\ H\ occurs\ after\ k\ toss\}Ak={w:first H occurs after k toss}显然Ω=⨆k=1∞Ak\Omega= \bigsqcup_{k=1}^{\infty} A_kΩ=⨆k=1∞Ak,并且
P(Ak)=12kP(A_k) = \frac{1}{2^k}P(Ak)=2k1这样我们就有了一个可以表述无限次独立重复试验的概率空间。
性质3.4
EX=1−pp,Var(X)=1−pp2EX=\frac{1-p}{p},Var(X)=\frac{1-p}{p^2}EX=p1−p,Var(X)=p21−p
这个性质留给读者证明。
Poisson分布
定义3.9 Poisson分布X∼Pois(λ)X\sim Pois(\lambda)X∼Pois(λ)的分布列为
P(X=k)=λke−λk!,k=0,1,2,⋯P(X=k) = \frac{\lambda^k e^{-\lambda}}{k!},k=0,1,2,\cdotsP(X=k)=k!λke−λ,k=0,1,2,⋯
Poisson分布一般用于记录单位时间内随机事件发生的次数,λ\lambdaλ的含义是事件发生的平均速率或者称为强度。
评注
归一化条件的来自eλe^{\lambda}eλ的Taylor展开
∑k=0∞P(X=k)=∑k=0∞λke−λk!=e−λeλ=1\sum_{k=0}^{\infty} P(X=k) = \sum_{k=0}^{\infty}\frac{\lambda^k e^{-\lambda}}{k!}=e^{-\lambda}e^{\lambda} = 1 k=0∑∞P(X=k)=k=0∑∞k!λke−λ=e−λeλ=1
性质3.5 Poisson分布的期望和方差都是λ\lambdaλ
证明
EX=∑k=0∞kλke−λk!=∑k=1∞kλke−λk!=λ∑k=1∞λk−1e−λ(k−1)!=λ∑k=0∞λke−λk!=λEX2=∑k=0∞k2λke−λk!=λ∑k=0∞(k+1)λke−λk!=λ(λ+1)VarX=EX2−(EX)2=λEX = \sum_{k=0}^{\infty} k\frac{\lambda^k e^{-\lambda}}{k!} = \sum_{k=1}^{\infty} k\frac{\lambda^k e^{-\lambda}}{k!} =\lambda \sum_{k=1}^{\infty} \frac{\lambda^{k-1} e^{-\lambda}}{(k-1)!} =\lambda \sum_{k=0}^{\infty} \frac{\lambda^{k} e^{-\lambda}}{k!} = \lambda \\ EX^2 = \sum_{k=0}^{\infty} k^2\frac{\lambda^k e^{-\lambda}}{k!} = \lambda \sum_{k=0}^{\infty} (k+1)\frac{\lambda^{k} e^{-\lambda}}{k!} = \lambda(\lambda+1) \\ VarX = EX^2 - (EX)^2 = \lambda EX=k=0∑∞kk!λke−λ=k=1∑∞kk!λke−λ=λk=1∑∞(k−1)!λk−1e−λ=λk=0∑∞k!λke−λ=λEX2=k=0∑∞k2k!λke−λ=λk=0∑∞(k+1)k!λke−λ=λ(λ+1)VarX=EX2−(EX)2=λ
性质3.6 X1∼Pois(λ1)X_1 \sim Pois(\lambda_1)X1∼Pois(λ1)与X2∼Pois(λ2)X_2 \sim Pois(\lambda_2)X2∼Pois(λ2)互相独立,则X1∣X1+X2=x∼Binom(x,λ1λ1+λ2)X_1|X_1+X_2 = x \sim Binom(x,\frac{\lambda_1}{\lambda_1+\lambda_2})X1∣X1+X2=x∼Binom(x,λ1+λ2λ1)
证明 根据性质4,X1+X2∼Pois(λ1+λ2)X_1+X_2 \sim Pois(\lambda_1 + \lambda_2)X1+X2∼Pois(λ1+λ2)
P(X1=k∣X1+X2=x)=P(X1=k,X1+X2=x)P(X1+X2=x)=P(X1=k)P(X2=x−k)P(X1+X2=x)=λ1ke−λ1k!λ2x−k1e−λ2(x−k1)!(λ1+λ2)xe−(λ1+λ2)x!=x!(x−k)!k!(λ1λ1+λ2)k(1−λ1λ1+λ2)x−k=Cxk(λ1λ1+λ2)k(1−λ1λ1+λ2)x−kP(X_1 = k|X_1+X_2 = x) = \frac{P(X_1 = k,X_1 + X_2 = x)}{P(X_1 + X_2 = x)} = \frac{P(X_1 = k)P(X_2 = x-k)}{P(X_1 + X_2 = x)} \\ = \frac{\frac{\lambda_1^k e^{-\lambda_1}}{k!} \frac{\lambda_2^{x-k_1}e^{-\lambda_2}}{(x-k_1)!}}{\frac{(\lambda_1 + \lambda_2)^x e^{-(\lambda_1 + \lambda_2)}}{x!}} = \frac{x!}{(x-k)!k!} \left( \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^k \left( 1- \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^{x-k} \\ = C_x^k \left( \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^k \left( 1- \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^{x-k} P(X1=k∣X1+X2=x)=P(X1+X2=x)P(X1=k,X1+X2=x)=P(X1+X2=x)P(X1=k)P(X2=x−k)=x!(λ1+λ2)xe−(λ1+λ2)k!λ1ke−λ1(x−k1)!λ2x−k1e−λ2=(x−k)!k!x!(λ1+λ2λ1)k(1−λ1+λ2λ1)x−k=Cxk(λ1+λ2λ1)k(1−λ1+λ2λ1)x−k
因此X1∣X1+X2=x∼Binom(x,λ1λ1+λ2)X_1|X_1+X_2 = x \sim Binom(x,\frac{\lambda_1}{\lambda_1+\lambda_2})X1∣X1+X2=x∼Binom(x,λ1+λ2λ1)
性质3.7 假设服从二项分布的随机变量YYY的参数满足λ=np\lambda=npλ=np,则n→∞n \to \inftyn→∞时,
P(Y=k)=Cnkpk(1−p)n−k=n!(n−k)!k!pk(1−p)n−k→2πnn+1/2e−n2π(n−k)n−k+1/2e−n+kk!pk(1−p)n−k→(np)ke−λk!(nn−k)n−k+1/2e−k→λke−λk!(1+kn−k)n−k+1/2e−k→λke−λk!P(Y=k) = C_n^k p^k(1-p)^{n-k} = \frac{n!}{(n-k)!k!} p^k(1-p)^{n-k} \\ \to \frac{\sqrt{2\pi} n^{n+1/2}e^{-n}}{\sqrt{2\pi} (n-k)^{n-k+1/2}e^{-n+k}k!} p^k(1-p)^{n-k} \\ \to \frac{(np)^ke^{-\lambda}}{k!} (\frac{n}{n-k})^{n-k+1/2}e^{-k} \\ \to \frac{\lambda^ke^{-\lambda}}{k!} (1+\frac{k}{n-k})^{n-k+1/2}e^{-k} \\ \to \frac{\lambda^ke^{-\lambda}}{k!} P(Y=k)=Cnkpk(1−p)n−k=(n−k)!k!n!pk(1−p)n−k→2π(n−k)n−k+1/2e−n+kk!2πnn+1/2e−npk(1−p)n−k→k!(np)ke−λ(n−kn)n−k+1/2e−k→k!λke−λ(1+n−kk)n−k+1/2e−k→k!λke−λ
上式说明二项分布独立重复试验次数足够多,成功概率足够小时,二项随机变量依分布收敛于Poisson随机变量。推导过程中第一个近似用的是Stirling公式,接下来运用的主要是以下引理:
如果ak→0a_k \to 0ak→0,ck→∞c_k \to \inftyck→∞,akck→λa_kc_k \to \lambdaakck→λ,则
(1+ak)ck→eλ(1+a_k)^{c_k} \to e^{\lambda} (1+ak)ck→eλ
通常在n≥20,p≤0.05n \ge 20,p \le 0.05n≥20,p≤0.05时可以用这个近似。
例3.6 复合Poisson分布
假设某只昆虫产卵数量为N∼Pois(λ)N\sim Pois(\lambda)N∼Pois(λ),每个卵被成功孵化的概率为ppp,请问这只母体生产的子代昆虫数量XXX服从什么分布?
显然X∣N=n∼Binom(n,p)X|N=n \sim Binom(n,p)X∣N=n∼Binom(n,p),
P(X=k)=∑n=0∞P(X=k,N=n)=∑n=0∞P(X=k∣N=n)P(N=n)=∑n=0∞[Cnkpk(1−p)n−k]λne−λn!=∑n=k∞[Cnkpk(1−p)n−k]λne−λn!P(X=k) = \sum_{n=0}^{\infty} P(X=k,N=n) = \sum_{n=0}^{\infty} P(X=k|N=n)P(N=n) \\ = \sum_{n=0}^{\infty} [C_n^k p^k (1-p)^{n-k}] \frac{\lambda^n e^{-\lambda}}{n!} = \sum_{n=k}^{\infty} [C_n^k p^k (1-p)^{n-k}] \frac{\lambda^n e^{-\lambda}}{n!}P(X=k)=n=0∑∞P(X=k,N=n)=n=0∑∞P(X=k∣N=n)P(N=n)=n=0∑∞[Cnkpk(1−p)n−k]n!λne−λ=n=k∑∞[Cnkpk(1−p)n−k]n!λne−λ
先化简一下被求和的式子
[Cnkpk(1−p)n−k]λne−λn!=n!(n−k)!k!pk(1−p)n−kλne−λn!=(λp)kk!e−λ[λ(1−p)]n−k(n−k)![C_n^k p^k (1-p)^{n-k}] \frac{\lambda^n e^{-\lambda}}{n!} = \frac{n!}{(n-k)!k!}p^k (1-p)^{n-k} \frac{\lambda^n e^{-\lambda}}{n!} \\ = \frac{(\lambda p)^k}{k!}e^{-\lambda} \frac{[\lambda(1-p)]^{n-k}}{(n-k)!}[Cnkpk(1−p)n−k]n!λne−λ=(n−k)!k!n!pk(1−p)n−kn!λne−λ=k!(λp)ke−λ(n−k)![λ(1−p)]n−k
这样求和的结果就很明显了
∑n=k∞(λp)kk!e−λ[λ(1−p)]n−k(n−k)!=(λp)kk!e−λ∑n=k∞[λ(1−p)]n−k(n−k)!=(λp)kk!e−λeλ(1−p)=(λp)ke−λpk!\sum_{n=k}^{\infty} \frac{(\lambda p)^k}{k!}e^{-\lambda} \frac{[\lambda(1-p)]^{n-k}}{(n-k)!} =\frac{(\lambda p)^k}{k!}e^{-\lambda} \sum_{n=k}^{\infty} \frac{[\lambda(1-p)]^{n-k}}{(n-k)!} \\ = \frac{(\lambda p)^k}{k!}e^{-\lambda} e^{\lambda(1-p)} = \frac{(\lambda p)^k e^{-\lambda p}}{k!}n=k∑∞k!(λp)ke−λ(n−k)![λ(1−p)]n−k=k!(λp)ke−λn=k∑∞(n−k)![λ(1−p)]n−k=k!(λp)ke−λeλ(1−p)=k!(λp)ke−λp
因此X∼Pois(λp)X \sim Pois(\lambda p)X∼Pois(λp)
总结
以上是生活随笔为你收集整理的[概统]本科二年级 概率论与数理统计 第三讲 离散型随机变量的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: UA MATH567 高维统计I 概率不
- 下一篇: UA MATH567 高维统计I 概率不