概论_第5章_中心极限定理1__定理2(棣莫弗-拉普拉斯中心极限定理)

这篇具有很好参考价值的文章主要介绍了概论_第5章_中心极限定理1__定理2(棣莫弗-拉普拉斯中心极限定理)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在概率论中, 把有关论证随机变量和的极限分布为正态分布的一类定理 称为中心极限定理 称为中心极限定理 称为中心极限定理

本文介绍独立同分布序列的中心极限定理。

一 独立同分布序列的中心极限定理

定理1 X 1 , X 2 , . . . X n , . . . X_1, X_2, ...X_n,... X1,X2,...Xn,... 是独立同分布的随机变量序列, 且具有相同数学期望和方差, E ( X i ) = μ , D ( X i ) = σ 2 ( i = 1 , 2 , . . . ) E(X_i)=\mu, D(X_i)=\sigma^2(i=1,2, ...) E(Xi)=μ,D(Xi)=σ2(i=1,2,...), 记随机变量 Y n = Y_n= Yn= ∑ i = 1 n X i − n μ n σ \frac{\sum\limits_{i=1}^{n}X_i-n\mu}{\sqrt{n}\sigma} n σi=1nXinμ 的分布函数为 F n ( x ) F_n(x) Fn(x), 则对于任意实数 x x x,

lim ⁡ n → ∞ F n ( x ) = lim ⁡ n → ∞ P { Y n ⩽ x } = \lim\limits_{n \rightarrow \infty}F_n(x) =\lim\limits_{n \rightarrow \infty}P\{Y_n \leqslant x\} = nlimFn(x)=nlimP{Ynx}= lim ⁡ n → ∞ P \lim\limits_{n \rightarrow \infty}P nlimP { \{ { ∑ i = 1 n − n μ n σ \frac{\sum\limits_{i=1}^{n}-n\mu}{ \sqrt{n}\sigma} n σi=1nnμ } \} }

= ∫ − ∞ x 1 2 π e − t 2 2 d t = Φ ( x ) =\int_{- \infty}^{x}\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt=\Phi(x) =x2π 1e2t2dt=Φ(x)
,

由这一定理可知以下结论:

1.

当n充分大时, 独立同分布的随机变量之和 Z n = ∑ i = 1 n X i Z_n=\sum\limits_{i=1}^{n}X_i Zn=i=1nXi的分布近似于正态分布 N ( n μ , n σ 2 ) N(n\mu, n\sigma^2) N(nμ,nσ2).
中心极限定理告诉我们, 不论 X 1 , X 2 , . . . , X n , . . . X_1,X_2, ..., X_n,... X1,X2,...,Xn,...同服从什么分布, 当n充分大时, 其和 Z n Z_n Zn 近似服从正态分布.

2.

考虑 独立同分布的随机变量 X 1 , X 2 , . . . , X n , . . . X_1, X_2,..., X_n,... X1,X2,...,Xn,... 的平均值 X ‾ = 1 n ∑ i = 1 n X i \overline X = \frac{1}{n}\sum\limits_{i=1}^{n}X_i X=n1i=1nXi, 有

E ( X ‾ ) = E(\overline X) = E(X)= μ \mu μ

D ( X ‾ ) = D(\overline X)= D(X)= σ 2 n \frac{\sigma^2}{n} nσ2
,

它的标准化随机变量为 X ‾ − μ σ / n \frac{\overline X - \mu}{\sigma/ \sqrt{n}} σ/n Xμ 即为上述 Y n Y_n Yn, 因此 X ‾ − μ σ / n \frac{\overline X - \mu}{\sigma/ \sqrt{n}} σ/n Xμ 的分布函数即是上述的 F n ( x ) F_n(x) Fn(x), 因而有

lim ⁡ n → ∞ F n ( x ) = ∫ − ∞ x 1 2 π e − t 2 2 d t = Φ ( x ) \lim\limits_{n \rightarrow \infty}F_n(x) =\int_{- \infty}^{x}\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt = \Phi(x) nlimFn(x)=x2π 1e2t2dt=Φ(x).

由此可见, 当n充分大时, 独立同分布随机变量的平均值 X ‾ = 1 n ∑ i = 1 n X i \overline X = \frac{1}{n}\sum\limits_{i=1}^{n}X_i X=n1i=1nXi 的分布近似于正态分布 N N N ( μ , σ 2 n ) (\mu, \frac{\sigma^2}{n}) (μ,nσ2), 这是独立同分布中心极限定理的另一表达形式


二 棣莫弗—拉普拉斯中心极限定理

此定理是 定理1 的特殊情况。

定理2(棣—拉中心极限定理)

设随机变量 Z n Z_n Zn是n次独立重复试验中事件A发生的次数, p是事件A发生的概率, 则对于任意实数 x x x

lim ⁡ n → ∞ \lim\limits_{n \rightarrow \infty} nlimP { \{ { Z n − n p n p ( 1 − p ) ⩽ x \frac{Z_n-np}{\sqrt{np(1-p)}}\leqslant x np(1p) Znnpx } \} } = ∫ − ∞ x 1 2 π e − t 2 2 d t = Φ ( x ) =\int_{- \infty}^{x}\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}dt = \Phi(x) =x2π 1e2t2dt=Φ(x).

由棣—拉中心极限定理,得到下列结论:

1.

在贝努利试验中, 若事件A发生的概率为p, 设 Z n Z_n Zn为n次独立重复试验中事件A发生的频数, 则当n充分大时, Z n Z_n Zn 近似服从 N ( n p , n p ( 1 − p ) ) N(np, np(1-p)) N(np,np(1p)).

2.

在贝努利试验中, 若事件A发生的概率为p, Z n n \frac{Z_n}{n} nZn 为n次独立重复试验中事件A 发生的频率, 则当n充分大时, Z n n \frac{Z_n}{n} nZn 近似服从 N ( p , p ( 1 − p ) n ) N(p, \frac{p(1-p)}{n}) N(p,np(1p)).



文章来源地址https://www.toymoban.com/news/detail-516342.html

三 例题

  1. 设随机变量X~B(100, 0.2), Φ ( x ) \Phi(x) Φ(x) 为标准正态分布函数, 已知 Φ ( 2.5 ) = 0.9938 \Phi(2.5)=0.9938 Φ(2.5)=0.9938, 应用 中心极限定理, 可得 P{ 20 ⩽ x ⩽ 30 20\leqslant x \leqslant 30 20x30} ≈ \approx ___________。

    解: X ~ B(100, 0.2), np=20, npq = 16, 则P{20 ⩽ x ⩽ 30 \leqslant x \leqslant 30 x30} = P { 20 − 20 16 ⩽ X − 20 16 ⩽ 30 − 20 16 } P\{{\frac{20-20}{\sqrt{16}} \leqslant \frac{X-20}{\sqrt{16}} \leqslant \frac{30-20}{\sqrt{16}}}\} P{16 202016 X2016 3020} (这一步用到定理2)
    ≈ Φ ( 30 − 20 4 ) − Φ ( 20 − 20 4 ) = Φ ( 2.5 ) − Φ ( 0 ) = 0.9938 − 0.5 = 0.4938 \approx \Phi(\frac{30-20}{4}) - \Phi(\frac{20-20}{4}) = \Phi(2.5) - \Phi(0) = 0.9938-0.5 = 0.4938 Φ(43020)Φ(42020)=Φ(2.5)Φ(0)=0.99380.5=0.4938.
    答案为 0.4938。

到了这里,关于概论_第5章_中心极限定理1__定理2(棣莫弗-拉普拉斯中心极限定理)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 拉普拉斯算子

    在介绍拉普拉斯算子概念之前我们先介绍,哈密尔顿算子( ∇ nabla ∇ ),梯度,散度等概念 所谓哈密尔顿算子即为某一物理量在笛卡尔坐标系下的偏导数的矢量和,其运算符号为: ∇ nabla ∇ ,定义如下: ∇ = δ δ x i + δ δ y j + δ δ z k nabla={frac{delta}{delta x}}pmb{i}+{f

    2024年02月09日
    浏览(37)
  • 拉普拉斯变换

    1.公式:设f(t)在t≥0时有定义, 其中s=β+jw。 注:L(1)=   L(sgnt)=   L()= 2.性质         性质1:          性质2:          性质3:         性质4:L()= 推导性质2:使用欧拉公式进行推导 同理,cosat= ,使用分部积分法,经过两次分部积分后会出现原来的积分,通过合并

    2024年02月05日
    浏览(32)
  • 【电路分析】拉普拉斯变换及其应用

    零状态响应 是指电路的外加激励源为零的情况下,由动态元件的初始储能引起的响应。 零输入响应 是指电路的初始状态为零(即换路前电容电压为零,电感电流为零),由外加激励源产生的响应。 该函数在 t0时幅值为1,在 t0 时幅值为-0,在 t=0时函数没有定义但为有限值

    2024年02月03日
    浏览(29)
  • visual Studio MFC 平台实现拉普拉斯和拉普拉斯与直方图均衡化与中值滤波相结合实现比较

    本文使用visual Studio MFC 平台实现图像增强中的拉普拉斯变换,同时拉普拉斯一般不会单独使用,与其他平滑操作相结合,本文使用了拉普拉斯与直方图均衡化以及与中值滤波相结合,也对三种方式进行了对比 关于基础工程的创建可以参考 01-Visual Studio 使用MFC 单文档工程绘制

    2024年02月04日
    浏览(34)
  • 图谱论学习—拉普拉斯矩阵背后的含义

    一、为什么学习拉普拉斯矩阵     早期,很多图神经网络的概念是基于图信号分析或图扩散的,而这些都需要与图谱论相关的知识。并且在图网络深度学习中(graph deep learning)中,拉普拉斯矩阵是很常用的概念,深入理解其物理含义非常有助于加深对GNN模型的理解。博主最

    2023年04月09日
    浏览(30)
  • 基于拉普拉斯金字塔的图像融合

    仅为笔记,供自己使用。 读入两幅大小相同的图像 img1 img2; 构建 img1 img2的 高斯金字塔,层数根据需要设定(本实验为7层); 根据高斯金字塔和拉普拉斯金字塔的关系,推出拉普拉斯金字塔的Li(也为7层,第一层大小和原图相同); 在 两组拉普拉斯图层 的每一层进行图像

    2024年02月11日
    浏览(33)
  • 图像处理之LoG算子(高斯拉普拉斯)

    LoG算子是由拉普拉斯算子改进而来。拉普拉斯算子是二阶导数算子,是一个标量,具有线性、位移不变性,其传函在频域空间的原点为0。所有经过拉普拉斯算子滤波的图像具有零平均灰度。但是该算子的缺点是对噪声具有敏感性,因此在实际应用中,一般先要对图像进行平滑

    2024年02月16日
    浏览(35)
  • 学习笔记:Opencv实现拉普拉斯图像锐化算法

    2023.8.19 为了在暑假内实现深度学习的进阶学习,Copy大神的代码,记录学习日常 图像锐化的百科: 图像锐化算法-sharpen_lemonHe_的博客-CSDN博客 在环境配置中要配置opencv: pip install opencv-contrib-python Code and lena.png:注意你是否在data下由lena.png   附上lena.png  效果所示(解读):

    2024年02月12日
    浏览(32)
  • Opencv 图像金字塔----高斯和拉普拉斯

    原文:图像金字塔----高斯和拉普拉斯 图像金字塔 是图像中多尺度表达的一种,最初用于机器视觉和图像压缩,最主要用于图像的分割、融合。 高斯金字塔是由底部的最大分辨率图像逐次向下采样得到的一系列图像。最下面的图像分辨率最高,越往上图像分辨率越低。 高斯

    2024年02月09日
    浏览(26)
  • 【译】用分数阶拉普拉斯解开大脑的神秘面纱

    原作:普利瑟姆 /Gemini翻译/   人类大脑通常被称为已知宇宙中最复杂的物体,是连接性和功能性的奇迹。大脑由数十亿个神经元组成,每个神经元都有可能与数千个其他神经元相连,因此大脑的网络既庞大又复杂。 深度神经网络,特别是transformers的兴起无疑彻底改变了自然

    2024年03月25日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包