欢迎访问 生活随笔!

生活随笔

当前位置: 首页 > 编程资源 > 编程问答 >内容正文

编程问答

[概统]本科二年级 概率论与数理统计 第三讲 离散型随机变量

发布时间:2025/4/14 编程问答 50 豆豆
生活随笔 收集整理的这篇文章主要介绍了 [概统]本科二年级 概率论与数理统计 第三讲 离散型随机变量 小编觉得挺不错的,现在分享给大家,帮大家做个参考.

[概统]本科二年级 概率论与数理统计 第三讲 离散型随机变量

    • 离散型随机变量的基本概念
    • Bernoulli分布与二项分布
    • 超几何分布
    • 几何分布
    • Poisson分布

离散型随机变量的基本概念

定义3.1 离散型概率空间
假设Ω\OmegaΩ是非空的有有限个元素的集合,P(Ω)\mathcal{P}(\Omega)P(Ω)是它的幂集,简记为P\mathcal{P}P,也就是Ω\OmegaΩ的所有子集构成的集合,称(Ω,P)(\Omega,\mathcal{P})(Ω,P)是一个事件空间,Ω\OmegaΩ中的元素是基本事件,P\mathcal{P}P中的元素是事件。假设P:P→[0,1]P:\mathcal{P} \to [0,1]P:P[0,1]是一个概率,如果

  • P(ϕ)=0P(\phi)=0P(ϕ)=0,即不可能事件概率为0
  • P(Ω)=1P(\Omega)=1P(Ω)=1,即必然事件概率为1
  • 对一列互斥的事件{An}n≥1⊂P\{A_n\}_{n \ge 1} \subset \mathcal{P}{An}n1P, P(⋃n≥1An)=∑n≥1P(An)P(\bigcup_{n \ge 1}A_n) = \sum_{n \ge 1}P(A_n)P(n1An)=n1P(An)即互斥事件和的概率等于互斥事件概率之和
  • (Ω,P,P)(\Omega,\mathcal{P},P)(Ω,P,P)是离散型概率空间。

    评注
    这个定义稍微有点抽象,因为我们要开始试图熟悉能够公理化表达概率的语言了。首先就是事件空间,在更高层次的概率论(硕士二年级那个系列,还没开始施工呢)中,我们会从集族与σ\sigmaσ-代数的角度来解释,但现在我们暂时叫它事件空间,在下面的例子中我们可以看到怎么用事件空间来表述我们耳熟能详的古典概型问题。然后是概率的定义,这里我们通过对P\mathcal{P}P上的映射加以三条公理来定义的概率。在古典概型中我们就做了一些叙述,事件=一些基本事件的集合,因此我们完全可以用集合来表示事件,事件的概率就可以理解成把事件映射成一个[0,1][0,1][0,1]上的数的映射,既然事件可以用集合表示,那么概率其实就是一个自变量为集合的映射。因为P\mathcal{P}P可以表示所有可能的事件,因此它可以作为概率的定义域,所以概率是从P\mathcal{P}P[0,1][0,1][0,1]的映射。

    例3.1 掷骰子
    我们考虑一个最简单的问题,假设我们要讨论丢一个均匀骰子的所有可能性,则Ω\OmegaΩ表示所有可能的点数:
    Ω={1,2,3,4,5,6}\Omega = \{1,2,3,4,5,6\}Ω={1,2,3,4,5,6}

    它的幂集(所有子集)是
    P={ϕ,{1},⋯,{6},{1,2},⋯,{1,6},{2,3},⋯,Ω}\mathcal{P}=\{\phi,\{1\},\cdots,\{6\},\{1,2\},\cdots,\{1,6\},\{2,3\},\cdots,\Omega\}P={ϕ,{1},,{6},{1,2},,{1,6},{2,3},,Ω}

    也就是幂集一共包含26=642^6=6426=64个集合,用AijA_{ij}Aij表示这些集合,iii表示集合包含的元素个数,0≤i≤60 \le i \le 60i6j=1,⋯,C6ij=1,\cdots,C_6^ij=1,,C6i

    接下来我们可以讨论在(Ω,P)(\Omega,\mathcal{P})(Ω,P)上定义概率。因为这个是一个均匀骰子,所以我们可以使用古典概型,也就是所有基本事件概率相等,即
    P({1})=P({2})=⋯=P({6})=16P(\{1\})=P(\{2\})=\cdots=P(\{6\}) = \frac{1}{6}P({1})=P({2})==P({6})=61

    如果是有两个元素的集合,比如{1,2}\{1,2\}{1,2},它表示投掷点数属于这个集合,也就是点数为1或者2,因此
    P({1,2})=P({1})+P({2})=13P(\{1,2\})=P(\{1\})+P(\{2\}) = \frac{1}{3}P({1,2})=P({1})+P({2})=31

    因此我们可以写出基于古典概型定义的概率:
    P(Aij)=i6P(A_{ij}) = \frac{i}{6}P(Aij)=6i

    定义3.2 离散型随机变量
    X:(Ω,P,P)→RX:(\Omega,\mathcal{P},P) \to \mathbb{R}X:(Ω,P,P)R是一个离散型随机变量,如果(Ω,P,P)(\Omega,\mathcal{P},P)(Ω,P,P)是一个离散型概率空间。

    例3.2 掷骰子续
    假设在某个抽奖活动中,规则是用例3.1中的骰子投掷一次,获得的奖金是
    (10+2.5×点数)×点数(10+2.5\times 点数) \times 点数(10+2.5×)×

    参加这个抽奖活动需要交100元,用XXX表示参加这个抽奖活动可以获得的净收益,显然XXX是从Ω\OmegaΩR\mathbb{R}R的映射,于是XXX是离散型随机变量,我们用表格表示XXX这个映射

    Ω\OmegaΩ123456
    XXX-87.5-70-47.5-2012.550

    定义3.3 离散型随机变量的分布列 (probability mass function, pmf)
    X:(Ω,P,P)→RX:(\Omega,\mathcal{P},P) \to \mathbb{R}X:(Ω,P,P)R是一个离散型随机变量,称ρ:R→[0,1]\rho:\mathbb{R} \to [0,1]ρ:R[0,1]XXX的pmf如果:
    ρ(x)=P({w:X(w)=x})\rho(x)=P(\{w:X(w)=x\})ρ(x)=P({w:X(w)=x})

    其中P({w:X(w)=x})P(\{w:X(w)=x\})P({w:X(w)=x})可以简写为P(X=x)P(X=x)P(X=x)

    评注
    xxx的取值范围是整个实数集,记值域为
    X(Ω)={X(w):w∈Ω}X(\Omega) = \{X(w):w \in \Omega\}X(Ω)={X(w):wΩ}

    则显然∀x∈X(Ω)C\forall x \in X(\Omega)^CxX(Ω)C, {w:X(w)=x}=ϕ\{w:X(w)=x\}=\phi{w:X(w)=x}=ϕ,即ρ(x)=0\rho(x)=0ρ(x)=0;另外,pmf满足归一性:
    ∑x∈X(Ω)ρ(x)=∑x∈X(Ω)P({w:X(w)=x})=P(⋃x∈X(Ω){w:X(w)=x})=P(Ω)=1\sum_{x \in X(\Omega)} \rho(x)=\sum_{x \in X(\Omega)} P(\{w:X(w)=x\}) \\ = P(\bigcup_{x \in X(\Omega)}\{w:X(w)=x\})=P(\Omega)=1xX(Ω)ρ(x)=xX(Ω)P({w:X(w)=x})=P(xX(Ω){w:X(w)=x})=P(Ω)=1

    例3.3 掷骰子再续
    现在我们试图写出XXX的pmf,

    Ω\OmegaΩ123456
    XXX-87.5-70-47.5-2012.550
    ρ\rhoρ1/61/61/61/61/61/6

    定义3.4 离散型随机变量的期望
    X:(Ω,P,P)→RX:(\Omega,\mathcal{P},P) \to \mathbb{R}X:(Ω,P,P)R是一个离散型随机变量,ρ\rhoρXXX的pmf,则XXX的期望为
    EX=∑x∈X(Ω)xρ(x)EX = \sum_{x \in X(\Omega)}x \rho(x)EX=xX(Ω)xρ(x)

    例3.4 掷骰子最后一续
    我们来计算一下XXX的期望,
    EX=−87.5−70−47.5−20+12.5+506≈−27.08EX = \frac{-87.5 -70 -47.5-20+12.5+ 50 }{6}\approx -27.08EX=687.57047.520+12.5+5027.08

    说明参加这个活动的人平均要亏27.08

    例3.5
    甲、乙、丙准备玩一个游戏,他们请丁来投掷一枚硬币两次,如果第一次出现正面,则甲胜,如果出现背面,则继续;如果第二次出现正面,则乙胜,否则丙获胜。他们进行了3次游戏,计算丙获胜次数的期望。

    如果不按严谨的方式进行定义,我们直接进行计算,那么分析一次游戏的结果,甲获胜的概率是1/21/21/2,乙获胜的概率是1/41/41/4,丙获胜的概率是1/41/41/4,所以三次游戏中丙获胜次数的期望是3/43/43/4

    如果按严谨的方式定义,那么用Ω\OmegaΩ表示所有可能的投掷结果,用HHH表示正面,TTT表示背面,所以
    Ω={(H,H),(H,T),(T,H),(T,T)}\Omega = \{(H,H),(H,T),(T,H),(T,T)\}Ω={(H,H),(H,T),(T,H),(T,T)}

    比如(H,T)(H,T)(H,T)表示第一次正面,第二次反面。P\mathcal{P}P表示它的幂集,用古典概型定义概率,则
    P({(H,H)})=P({(H,T)})=P({(T,H)})=P({T,T})=14P(\{(H,H)\})=P(\{(H,T)\})=P(\{(T,H)\})=P(\{T,T\}) = \frac{1}{4}P({(H,H)})=P({(H,T)})=P({(T,H)})=P({T,T})=41

    这样我们就有了事件与概率空间(Ω,P,P)(\Omega,\mathcal{P},P)(Ω,P,P)。现在要进行三次游戏,于是能够描述这三次游戏的概率空间可以用集合的笛卡尔积表示
    Ω×Ω×Ω\Omega \times \Omega \times \OmegaΩ×Ω×Ω

    Ω×Ω×Ω\Omega \times \Omega \times \OmegaΩ×Ω×Ω上的概率就是P×P×PP \times P \times PP×P×P,比如{((H,H),(H,T),(T,T))}\{((H,H),(H,T),(T,T))\}{((H,H),(H,T),(T,T))}的概率为
    P×P×P({((H,H),(H,T),(T,T))})=P({(H,H)})P({(H,T)})P({(T,T)})=1/64P \times P \times P(\{((H,H),(H,T),(T,T))\}) \\ = P(\{(H,H)\})P(\{(H,T)\})P(\{(T,T)\}) = 1/64P×P×P({((H,H),(H,T),(T,T))})=P({(H,H)})P({(H,T)})P({(T,T)})=1/64

    于是三次游戏的概率空间为(Ω3,P(Ω3),P3)(\Omega^3,\mathcal{P}(\Omega^3),P^3)(Ω3,P(Ω3),P3)。下面我们定义随机变量XXX表示丙获胜的次数,则我们可以求出
    {w:X(w)=x},x=0,1,2,3\{w:X(w)=x\},x=0,1,2,3{w:X(w)=x},x=0,1,2,3

    然后在概率空间(Ω3,P(Ω3),P3)(\Omega^3,\mathcal{P}(\Omega^3),P^3)(Ω3,P(Ω3),P3)计算对应的概率,从而得到pmf,最后计算期望。我们称在一次游戏中统计丙的获胜情况的试验叫做Bernoulli试验,丙的获胜次数服从Bernoulli分布;称独立重复多次的游戏中统计丙获胜情况的试验叫做独立重复的Bernoulli试验或者简称独立重复试验,丙的获胜次数服从二项分布。显然如果每次都像这道题这样从定义事件空间开始,到赋予概率,再定义随机变量然后求pmf和期望就太麻烦了,于是接下来我们研究独立重复试验的一般规律。

    Bernoulli分布与二项分布

    Bernoulli分布用来描述Bernoulli试验的结果,Bernoulli试验指的是只有两种可能的结果的随机试验,比如明天是否下雨、新生儿是男孩还是女孩。用XXX表示Bernoulli试验的结果,X=1X=1X=1表示试验成功,X=0X=0X=0表示试验失败,记X∼Ber(p)X\sim Ber(p)XBer(p),则
    P(X=1)=p,P(X=0)=1−pP(X = 1) = p,\ \ P(X=0)=1-pP(X=1)=p,  P(X=0)=1p

    定义3.5 方差
    对于离散型随机变量XXX,称Var(X)Var(X)Var(X)是它的方差,其中
    Var(X)=∑x∈X(Ω)(x−EX)2ρ(x)=EX2−(EX)2Var(X)=\sum_{x \in X(\Omega)}(x-EX)^2\rho(x)=EX^2-(EX)^2Var(X)=xX(Ω)(xEX)2ρ(x)=EX2(EX)2

    性质3.1 EXr=pEX^r=pEXr=pVar(X)=p(1−p)Var(X)=p(1-p)Var(X)=p(1p)
    证明
    EXr=0r×(1−p)+1r×p=pVar(X)=p−p2=p(1−p)EX^r = 0^r \times (1-p) + 1^r \times p = p \\ Var(X) = p - p^2 = p(1-p)EXr=0r×(1p)+1r×p=pVar(X)=pp2=p(1p)

    定义3.6 将Bernoulli试验独立重复的nnn次,记XXX为成功的次数,则XXX服从二项分布,记为X∼Binom(n,p)X \sim Binom(n,p)XBinom(n,p)
    P(X=k)=Cnkpk(1−p)n−k,k=0,1,⋯,nP(X = k) = C_n^k p^k(1-p)^{n-k},k=0,1,\cdots,nP(X=k)=Cnkpk(1p)nk,k=0,1,,n

    评注

  • 二项分布的归一性由二项式定理给出,因此得名二项分布,∑k=0nCnkpk(1−p)n−k=(p+(1−p))n=1\sum_{k=0}^n C_n^k p^k(1-p)^{n-k} = (p+(1-p))^n = 1k=0nCnkpk(1p)nk=(p+(1p))n=1
  • 另一种定义二项分布的办法是用Bernoulli分布和,记Y1,⋯,YnY_1,\cdots,Y_nY1,,Yn表示这nnn次Bernoulli试验的结果,则
    X=Y1+Y2+⋯+Yn∼Binom(n,p)X = Y_1 + Y_2 + \cdots + Y_n \sim Binom(n,p)X=Y1+Y2++YnBinom(n,p)
  • 性质3.2 EX=npEX = npEX=npVar(X)=np(1−p)Var(X)=np(1-p)Var(X)=np(1p)
    证明
    EY=∑k=0nkP(Y=k)=∑k=0nkCnkpk(1−p)n−kEY = \sum_{k=0}^{n} kP(Y=k) = \sum_{k=0}^{n} kC_n^k p^k(1-p)^{n-k} EY=k=0nkP(Y=k)=k=0nkCnkpk(1p)nk
    为了凑二项式定理的形式,需要处理掉组合数前的kkk,根据组合数的性质,这里面的kCnkkC_n^kkCnk可以替换为nCn−1k−1nC_{n-1}^{k-1}nCn1k1,因此
    EY=∑k=0nnCn−1k−1pk(1−p)n−k=np∑k=1nCn−1k−1pk−1(1−p)(n−1)−(k−1)=np∑k=0n−1Cn−1kpk(1−p)(n−1)−k=npEY = \sum_{k=0}^{n} nC_{n-1}^{k-1} p^k(1-p)^{n-k} = np \sum_{k=1}^{n} C_{n-1}^{k-1} p^{k-1}(1-p)^{(n-1)-(k-1)} \\ = np \sum_{k=0}^{n-1} C_{n-1}^k p^k(1-p)^{(n-1)-k} = np EY=k=0nnCn1k1pk(1p)nk=npk=1nCn1k1pk1(1p)(n1)(k1)=npk=0n1Cn1kpk(1p)(n1)k=npEY2=∑k=0nk2P(Y=k)=∑k=0nk2Cnkpk(1−p)n−k=np∑k=0n−1(k+1)Cn−1kpk(1−p)(n−1)−k=np∑k=0n−1kCn−1kpk(1−p)(n−1)−k+np=np∑k=0n−1(n−1)Cn−2k−1pk(1−p)(n−1)−k+np=n(n−1)p2+npEY^2 = \sum_{k=0}^{n} k^2P(Y=k) = \sum_{k=0}^{n} k^2C_n^k p^k(1-p)^{n-k} \\ =np \sum_{k=0}^{n-1} (k+1)C_{n-1}^k p^k(1-p)^{(n-1)-k} \\=np \sum_{k=0}^{n-1} kC_{n-1}^k p^k(1-p)^{(n-1)-k} + np \\ = np \sum_{k=0}^{n-1} (n-1)C_{n-2}^{k-1} p^k(1-p)^{(n-1)-k} + np \\ = n(n-1)p^2 + np EY2=k=0nk2P(Y=k)=k=0nk2Cnkpk(1p)nk=npk=0n1(k+1)Cn1kpk(1p)(n1)k=npk=0n1kCn1kpk(1p)(n1)k+np=npk=0n1(n1)Cn2k1pk(1p)(n1)k+np=n(n1)p2+npVar(Y)=EY2−(EY)2=np(1−p)Var(Y) = EY^2 - (EY)^2 = np(1-p) Var(Y)=EY2(EY)2=np(1p)

    超几何分布

    定义3.7 有个箱子里有MMM个球,其中NNN个是白球,其他球是黑球,从中抽出nnn个球,其中白球的数量为XXX,则XXX服从超几何分布。
    P(X=k)=CM−Nn−kCNkCMnP(X=k) = \frac{C_{M-N}^{n-k} C_N^k}{C_M^n} P(X=k)=CMnCMNnkCNk

    评注
    下面给出一个恒等式
    CMn=∑k=0nCM−Nn−kCNkC_M^n = \sum_{k=0}^{n} C_{M-N}^{n-k} C_N^k CMn=k=0nCMNnkCNk
    这个恒等式叫Vandermonde恒等式,它的证明也比较简单。考虑
    (1+t)M=∑i=0MCMiti(1+t)^M = \sum_{i=0}^M C_M^i t^i (1+t)M=i=0MCMiti
    MMM写成M=N+(M−N)M=N+(M-N)M=N+(MN)
    (1+t)M=(1+t)N(1+t)M−N∑i=0MCMiti=(∑i=0NCNiti)(∑i=0M−NCM−Niti)(1+t)^M = (1+t)^{N}(1+t)^{M-N} \\ \sum_{i=0}^M C_M^i t^i = (\sum_{i=0}^N C_N^i t^i)(\sum_{i=0}^{M-N} C_{M-N}^i t^i) (1+t)M=(1+t)N(1+t)MNi=0MCMiti=(i=0NCNiti)(i=0MNCMNiti)
    等式左边tnt^ntn项的系数为CMnC_M^nCMn,等式右边tnt^ntn项的系数为
    ∑k=0nCM−Nn−kCNk\sum_{k=0}^{n} C_{M-N}^{n-k} C_N^k k=0nCMNnkCNk
    同阶项的系数相等,因此上述恒等式成立。超几何分布的归一化条件就是以Vandermonde恒等式为基础的。
    ∑k=0nP(X=k)=∑k=0nCM−Nn−kCNkCMn=CMnCMn=1\sum_{k=0}^{n} P(X=k) = \sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_N^k}{C_M^n}= \frac{C_M^n}{C_M^n} = 1 k=0nP(X=k)=k=0nCMnCMNnkCNk=CMnCMn=1

    性质3.3
    EX=NnM,EX2=nNM+Nn(N−1)(n−1)M(M−1)EX=\frac{Nn}{M},EX^2=\frac{nN}{M} + \frac{Nn(N-1)(n-1)}{M(M-1)}EX=MNn,EX2=MnN+M(M1)Nn(N1)(n1)

    证明
    EX=∑k=0nkCM−Nn−kCNkCMnEX = \sum_{k=0}^{n} k\frac{C_{M-N}^{n-k} C_N^k}{C_M^n} EX=k=0nkCMnCMNnkCNk
    先将kCNkkC_N^kkCNk替换为NCN−1k−1NC_{N-1}^{k-1}NCN1k1
    EX=N∑k=0nCM−Nn−kCN−1k−1CMn=N∑k=0n−1CM−N(n−1)−kCN−1kCMn=nNM∑k=0n−1CM−N(n−1)−kCN−1kCM−1n−1=nNMEX = N \sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} = N \sum_{k=0}^{n-1} \frac{C_{M-N}^{(n-1)-k} C_{N-1}^{k}}{C_M^n} \\= \frac{nN}{M}\sum_{k=0}^{n-1} \frac{C_{M-N}^{(n-1)-k} C_{N-1}^{k}}{C_{M-1}^{n-1}} = \frac{nN}{M} EX=Nk=0nCMnCMNnkCN1k1=Nk=0n1CMnCMN(n1)kCN1k=MnNk=0n1CM1n1CMN(n1)kCN1k=MnN
    方差要稍微困难点,这里给出计算二阶原点矩的计算过程
    EX2=∑k=0nk2CM−Nn−kCNkCMn=N∑k=0nkCM−Nn−kCN−1k−1CMn=N∑k=0nCM−Nn−kCN−1k−1CMn+N∑k=0n(k−1)CM−Nn−kCN−1k−1CMn=nNM+N(N−1)∑k=0nCM−Nn−kCN−2k−2CMn=nNM+N(N−1)∑k=0n−2CM−N(n−2)−kCN−2kCMn=nNM+Nn(N−1)(n−1)M(M−1)∑k=0n−2CM−N(n−2)−kCN−2kCM−2n−2=nNM+Nn(N−1)(n−1)M(M−1)EX^2 = \sum_{k=0}^{n} k^2 \frac{C_{M-N}^{n-k} C_N^k}{C_M^n} = N\sum_{k=0}^{n} k \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} \\ = N\sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} + N\sum_{k=0}^{n} (k-1) \frac{C_{M-N}^{n-k} C_{N-1}^{k-1}}{C_M^n} \\ = \frac{nN}{M} + N(N-1)\sum_{k=0}^{n} \frac{C_{M-N}^{n-k} C_{N-2}^{k-2}}{C_M^n} \\ = \frac{nN}{M} + N(N-1)\sum_{k=0}^{n-2} \frac{C_{M-N}^{(n-2)-k} C_{N-2}^{k}}{C_M^n} \\ = \frac{nN}{M} + \frac{Nn(N-1)(n-1)}{M(M-1)}\sum_{k=0}^{n-2} \frac{C_{M-N}^{(n-2)-k} C_{N-2}^{k}}{C_{M-2}^{n-2}} \\ = \frac{nN}{M} + \frac{Nn(N-1)(n-1)}{M(M-1)} EX2=k=0nk2CMnCMNnkCNk=Nk=0nkCMnCMNnkCN1k1=Nk=0nCMnCMNnkCN1k1+Nk=0n(k1)CMnCMNnkCN1k1=MnN+N(N1)k=0nCMnCMNnkCN2k2=MnN+N(N1)k=0n2CMnCMN(n2)kCN2k=MnN+M(M1)Nn(N1)(n1)k=0n2CM2n2CMN(n2)kCN2k=MnN+M(M1)Nn(N1)(n1)

    几何分布

    定义3.8 几何分布记录独立重复Bernoulli试验第一次成功前失败的次数,其分布列为
    P(X=k)=p(1−p)k,k=0,1,⋯P(X=k) = p(1-p)^k, k =0,1,\cdots P(X=k)=p(1p)k,k=0,1,

    评注

  • 归一化的条件来自几何序列的级数,因此被称为几何分布∑k=0∞P(X=k)=p∑k=0∞(1−p)k=p1−(1−p)∞1−(1−p)=1\sum_{k=0}^{\infty} P(X=k) = p\sum_{k=0}^{\infty} (1-p)^k = p\frac{1-(1-p)^{\infty}}{1-(1-p)} = 1k=0P(X=k)=pk=0(1p)k=p1(1p)1(1p)=1
  • 几何分布有另一种定义的方法,如果记录的是独立重复Bernoulli试验第一次成功前试验的次数,则同样是服从几何分布的,这时的随机变量记为YYY,读者可以验证EY=1/p,Var(Y)=1/p2EY=1/p,Var(Y)=1/p^2EY=1/p,Var(Y)=1/p2
  • 需要注意的是几何分布可能会做无限次独立重复试验,因此例3.5所叙述的概率空间是没法用的,我们考虑基本事件无限的情况,构造一个分割
    D={D1,D2,⋯}\mathcal{D} = \{D_1,D_2,\cdots\}D={D1,D2,}满足Ω=⨆i=1∞Di\Omega = \bigsqcup_{i=1}^{\infty} D_iΩ=i=1Di以丢硬币为例,定义
    Ak={w:firstHoccursafterktoss}A_k = \{w: first\ H\ occurs\ after\ k\ toss\}Ak={w:first H occurs after k toss}显然Ω=⨆k=1∞Ak\Omega= \bigsqcup_{k=1}^{\infty} A_kΩ=k=1Ak,并且
    P(Ak)=12kP(A_k) = \frac{1}{2^k}P(Ak)=2k1这样我们就有了一个可以表述无限次独立重复试验的概率空间。
  • 性质3.4
    EX=1−pp,Var(X)=1−pp2EX=\frac{1-p}{p},Var(X)=\frac{1-p}{p^2}EX=p1p,Var(X)=p21p

    这个性质留给读者证明。

    Poisson分布

    定义3.9 Poisson分布X∼Pois(λ)X\sim Pois(\lambda)XPois(λ)的分布列为
    P(X=k)=λke−λk!,k=0,1,2,⋯P(X=k) = \frac{\lambda^k e^{-\lambda}}{k!},k=0,1,2,\cdotsP(X=k)=k!λkeλ,k=0,1,2,

    Poisson分布一般用于记录单位时间内随机事件发生的次数,λ\lambdaλ的含义是事件发生的平均速率或者称为强度。

    评注
    归一化条件的来自eλe^{\lambda}eλ的Taylor展开
    ∑k=0∞P(X=k)=∑k=0∞λke−λk!=e−λeλ=1\sum_{k=0}^{\infty} P(X=k) = \sum_{k=0}^{\infty}\frac{\lambda^k e^{-\lambda}}{k!}=e^{-\lambda}e^{\lambda} = 1 k=0P(X=k)=k=0k!λkeλ=eλeλ=1

    性质3.5 Poisson分布的期望和方差都是λ\lambdaλ
    证明
    EX=∑k=0∞kλke−λk!=∑k=1∞kλke−λk!=λ∑k=1∞λk−1e−λ(k−1)!=λ∑k=0∞λke−λk!=λEX2=∑k=0∞k2λke−λk!=λ∑k=0∞(k+1)λke−λk!=λ(λ+1)VarX=EX2−(EX)2=λEX = \sum_{k=0}^{\infty} k\frac{\lambda^k e^{-\lambda}}{k!} = \sum_{k=1}^{\infty} k\frac{\lambda^k e^{-\lambda}}{k!} =\lambda \sum_{k=1}^{\infty} \frac{\lambda^{k-1} e^{-\lambda}}{(k-1)!} =\lambda \sum_{k=0}^{\infty} \frac{\lambda^{k} e^{-\lambda}}{k!} = \lambda \\ EX^2 = \sum_{k=0}^{\infty} k^2\frac{\lambda^k e^{-\lambda}}{k!} = \lambda \sum_{k=0}^{\infty} (k+1)\frac{\lambda^{k} e^{-\lambda}}{k!} = \lambda(\lambda+1) \\ VarX = EX^2 - (EX)^2 = \lambda EX=k=0kk!λkeλ=k=1kk!λkeλ=λk=1(k1)!λk1eλ=λk=0k!λkeλ=λEX2=k=0k2k!λkeλ=λk=0(k+1)k!λkeλ=λ(λ+1)VarX=EX2(EX)2=λ

    性质3.6 X1∼Pois(λ1)X_1 \sim Pois(\lambda_1)X1Pois(λ1)X2∼Pois(λ2)X_2 \sim Pois(\lambda_2)X2Pois(λ2)互相独立,则X1∣X1+X2=x∼Binom(x,λ1λ1+λ2)X_1|X_1+X_2 = x \sim Binom(x,\frac{\lambda_1}{\lambda_1+\lambda_2})X1X1+X2=xBinom(x,λ1+λ2λ1)
    证明 根据性质4,X1+X2∼Pois(λ1+λ2)X_1+X_2 \sim Pois(\lambda_1 + \lambda_2)X1+X2Pois(λ1+λ2)
    P(X1=k∣X1+X2=x)=P(X1=k,X1+X2=x)P(X1+X2=x)=P(X1=k)P(X2=x−k)P(X1+X2=x)=λ1ke−λ1k!λ2x−k1e−λ2(x−k1)!(λ1+λ2)xe−(λ1+λ2)x!=x!(x−k)!k!(λ1λ1+λ2)k(1−λ1λ1+λ2)x−k=Cxk(λ1λ1+λ2)k(1−λ1λ1+λ2)x−kP(X_1 = k|X_1+X_2 = x) = \frac{P(X_1 = k,X_1 + X_2 = x)}{P(X_1 + X_2 = x)} = \frac{P(X_1 = k)P(X_2 = x-k)}{P(X_1 + X_2 = x)} \\ = \frac{\frac{\lambda_1^k e^{-\lambda_1}}{k!} \frac{\lambda_2^{x-k_1}e^{-\lambda_2}}{(x-k_1)!}}{\frac{(\lambda_1 + \lambda_2)^x e^{-(\lambda_1 + \lambda_2)}}{x!}} = \frac{x!}{(x-k)!k!} \left( \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^k \left( 1- \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^{x-k} \\ = C_x^k \left( \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^k \left( 1- \frac{\lambda_1}{\lambda_1 + \lambda_2}\right)^{x-k} P(X1=kX1+X2=x)=P(X1+X2=x)P(X1=k,X1+X2=x)=P(X1+X2=x)P(X1=k)P(X2=xk)=x!(λ1+λ2)xe(λ1+λ2)k!λ1keλ1(xk1)!λ2xk1eλ2=(xk)!k!x!(λ1+λ2λ1)k(1λ1+λ2λ1)xk=Cxk(λ1+λ2λ1)k(1λ1+λ2λ1)xk
    因此X1∣X1+X2=x∼Binom(x,λ1λ1+λ2)X_1|X_1+X_2 = x \sim Binom(x,\frac{\lambda_1}{\lambda_1+\lambda_2})X1X1+X2=xBinom(x,λ1+λ2λ1)

    性质3.7 假设服从二项分布的随机变量YYY的参数满足λ=np\lambda=npλ=np,则n→∞n \to \inftyn时,
    P(Y=k)=Cnkpk(1−p)n−k=n!(n−k)!k!pk(1−p)n−k→2πnn+1/2e−n2π(n−k)n−k+1/2e−n+kk!pk(1−p)n−k→(np)ke−λk!(nn−k)n−k+1/2e−k→λke−λk!(1+kn−k)n−k+1/2e−k→λke−λk!P(Y=k) = C_n^k p^k(1-p)^{n-k} = \frac{n!}{(n-k)!k!} p^k(1-p)^{n-k} \\ \to \frac{\sqrt{2\pi} n^{n+1/2}e^{-n}}{\sqrt{2\pi} (n-k)^{n-k+1/2}e^{-n+k}k!} p^k(1-p)^{n-k} \\ \to \frac{(np)^ke^{-\lambda}}{k!} (\frac{n}{n-k})^{n-k+1/2}e^{-k} \\ \to \frac{\lambda^ke^{-\lambda}}{k!} (1+\frac{k}{n-k})^{n-k+1/2}e^{-k} \\ \to \frac{\lambda^ke^{-\lambda}}{k!} P(Y=k)=Cnkpk(1p)nk=(nk)!k!n!pk(1p)nk2π(nk)nk+1/2en+kk!2πnn+1/2enpk(1p)nkk!(np)keλ(nkn)nk+1/2ekk!λkeλ(1+nkk)nk+1/2ekk!λkeλ

    上式说明二项分布独立重复试验次数足够多,成功概率足够小时,二项随机变量依分布收敛于Poisson随机变量。推导过程中第一个近似用的是Stirling公式,接下来运用的主要是以下引理:
    如果ak→0a_k \to 0ak0ck→∞c_k \to \inftyckakck→λa_kc_k \to \lambdaakckλ,则
    (1+ak)ck→eλ(1+a_k)^{c_k} \to e^{\lambda} (1+ak)ckeλ

    通常在n≥20,p≤0.05n \ge 20,p \le 0.05n20,p0.05时可以用这个近似。

    例3.6 复合Poisson分布
    假设某只昆虫产卵数量为N∼Pois(λ)N\sim Pois(\lambda)NPois(λ),每个卵被成功孵化的概率为ppp,请问这只母体生产的子代昆虫数量XXX服从什么分布?

    显然X∣N=n∼Binom(n,p)X|N=n \sim Binom(n,p)XN=nBinom(n,p)
    P(X=k)=∑n=0∞P(X=k,N=n)=∑n=0∞P(X=k∣N=n)P(N=n)=∑n=0∞[Cnkpk(1−p)n−k]λne−λn!=∑n=k∞[Cnkpk(1−p)n−k]λne−λn!P(X=k) = \sum_{n=0}^{\infty} P(X=k,N=n) = \sum_{n=0}^{\infty} P(X=k|N=n)P(N=n) \\ = \sum_{n=0}^{\infty} [C_n^k p^k (1-p)^{n-k}] \frac{\lambda^n e^{-\lambda}}{n!} = \sum_{n=k}^{\infty} [C_n^k p^k (1-p)^{n-k}] \frac{\lambda^n e^{-\lambda}}{n!}P(X=k)=n=0P(X=k,N=n)=n=0P(X=kN=n)P(N=n)=n=0[Cnkpk(1p)nk]n!λneλ=n=k[Cnkpk(1p)nk]n!λneλ
    先化简一下被求和的式子
    [Cnkpk(1−p)n−k]λne−λn!=n!(n−k)!k!pk(1−p)n−kλne−λn!=(λp)kk!e−λ[λ(1−p)]n−k(n−k)![C_n^k p^k (1-p)^{n-k}] \frac{\lambda^n e^{-\lambda}}{n!} = \frac{n!}{(n-k)!k!}p^k (1-p)^{n-k} \frac{\lambda^n e^{-\lambda}}{n!} \\ = \frac{(\lambda p)^k}{k!}e^{-\lambda} \frac{[\lambda(1-p)]^{n-k}}{(n-k)!}[Cnkpk(1p)nk]n!λneλ=(nk)!k!n!pk(1p)nkn!λneλ=k!(λp)keλ(nk)![λ(1p)]nk
    这样求和的结果就很明显了
    ∑n=k∞(λp)kk!e−λ[λ(1−p)]n−k(n−k)!=(λp)kk!e−λ∑n=k∞[λ(1−p)]n−k(n−k)!=(λp)kk!e−λeλ(1−p)=(λp)ke−λpk!\sum_{n=k}^{\infty} \frac{(\lambda p)^k}{k!}e^{-\lambda} \frac{[\lambda(1-p)]^{n-k}}{(n-k)!} =\frac{(\lambda p)^k}{k!}e^{-\lambda} \sum_{n=k}^{\infty} \frac{[\lambda(1-p)]^{n-k}}{(n-k)!} \\ = \frac{(\lambda p)^k}{k!}e^{-\lambda} e^{\lambda(1-p)} = \frac{(\lambda p)^k e^{-\lambda p}}{k!}n=kk!(λp)keλ(nk)![λ(1p)]nk=k!(λp)keλn=k(nk)![λ(1p)]nk=k!(λp)keλeλ(1p)=k!(λp)keλp
    因此X∼Pois(λp)X \sim Pois(\lambda p)XPois(λp)

    总结

    以上是生活随笔为你收集整理的[概统]本科二年级 概率论与数理统计 第三讲 离散型随机变量的全部内容,希望文章能够帮你解决所遇到的问题。

    如果觉得生活随笔网站内容还不错,欢迎将生活随笔推荐给好友。