概率论第七章 参数估计 点估计、区间估计(置信区间)

这篇具有很好参考价值的文章主要介绍了概率论第七章 参数估计 点估计、区间估计(置信区间)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、点估计

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

 称为θ帽(θhat)


无偏估计量:

即:若θ的估计量的数学期望E()等于θ,则称θ的估计量是未知参数θ的无偏估计量。


 题型:求数学期望

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

题型:证明A是B的无偏估计量

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

 关键还是求数学期望。若E(A)=B,则称A是B的无偏估计量。

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

平方和拆成3项,第一项不变,后两项合并。

第一项是,

第二项是,

第三项是,

第二项和第三项合并以后为。


更有效估计量(近30年没考过)

估计量的分布函数,概率论基础,概率论,机器学习,人工智能


一致估计量(近年没考过)

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

一般出现依概率收敛,就用大数定律!

回顾:切大与辛大条件不同,结论相同。

切大 条件①Xi不相关②方差有界  结论:

辛大 条件①Xi独立同分布②期望存在  结论:


题型:求数学期望

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

 题型:无偏估计量

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

 关键:

背出泊松分布的数学期望和方差

题型:综合较复杂。已知总体X的概率密度f(x),求总体X的分布函数F(x),求统计量的分布函数F(z),计算统计量的数学期望。

估计量的分布函数,概率论基础,概率论,机器学习,人工智能


二、估计量的求法(矩估计法和最大似然估计法)

1、矩估计法:通过解方程组“总体矩=样本矩"求出要估计的未知参数。

设总体X的分布含有未知参数θ1、θ2…θk,显然是关于θ1、θ2…θk的函数,样本的k阶原点矩,当k=1样本的一阶原点矩=。

由:总体X的k阶原点矩  = 样本Xi的k阶原点矩 ,可以建立k个方程组,解出k个未知参数θ1、θ2…θk。

★求k个参数的估计就列出一阶矩到k阶矩的方程,考试大纲只要求最多两个参数的估计,最多两个方程。①     ②

原理:总体X和样本X1、X2…Xn独立同分布,所以总体X的分布中的未知参数θ1、θ2…=样本Xi的分布中的未知参数θ1、θ2…。

矩估计法不需要知道总体分布的具体分布数学形式,只要知道各阶矩存在。


2、最大似然估计法

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

第一步:写出似然函数L(θ)

1)总体X为离散型,似然函数L(θ) =样本概率分布全部相乘

2)总体X为连续型,似然函数L(θ) =样本概率密度全部相乘

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

第二步:找到未知参数θ的最大似然估计

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

未知参数θ的最大似然估计量 ——大写Xi

未知参数θ的最大似然估计值 ——小写xi

易错点:

若题干给的是样本X1,X2,…Xn,答案写的是最大似然估计量

若题干给的是样本观测值x1,x2,…xn,答案写的是最大似然估计值

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

最大似然估计法步骤:①写出似然函数L(θ)  ②找到最大值点:似然函数取对数后,再对θ求导,使导数为0,找到最大值点 / 利用单调性,找出似然函数的最大值点。


题型:已知总体X服从的分布带有两个未知参数μ和 

(1)求μ和的矩估计(2)求μ和的最大似然估计

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

估计量的分布函数,概率论基础,概率论,机器学习,人工智能 规范写法:解得μ的矩估计=…,解得的矩估计=…

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

注意:似然函数表达式中的不要化开,那样会变复杂估计量的分布函数,概率论基础,概率论,机器学习,人工智能

 似然函数取对数时,要以整体的方式出现,不要以单个出现。把凑成估计量的分布函数,概率论基础,概率论,机器学习,人工智能

题型:总体X服从指数分布(连续型),求参数λ的最大似然估计值

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

题型:似然函数的最大值点不是驻点的情况,总体X服从均匀分布(连续型),求未知参数θ的最大似然估计

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

题型:总体X是离散型,总体X的分布有未知参数θ,样本值具体知道——可以解出估计值的具体数值 

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

易错点:

题干给的是样本X1,X2,…Xn,答案写的是最大似然估计量

题干给的是样本观测值x1,x2,…xn,答案写的是最大似然估计值


三、区间估计

最近1~2年考过1~2次

1、置信区间(或区间估计)

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

θ的1-α置信区间:(θ1,θ2),

P{θ1<θ<θ2}=1-α——通俗来说,估计两个值θ1和θ2,能把未知参数θ套住的概率是1-α。

置信水平(置信度)用1-α表示,表示参数的真实值落在置信区间中的概率(测量值的可信程度)。题目常给定的置信水平为0.95。(1-α=0.95,则α=0.05)


2、一个正态总体的区间估计

直接背住这两个1-α置信区间(两种情况:μ未知、已知μ未知、未知

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

置信区间的计算取决于选用的统计量——置信区间是一个随机的区间,这里的随机是指端点为随机变量这个随机变量通常是一个统计量,当抽取不同的样本时对应不同的值,从而对应不同的区间。

1)μ未知、已知时,选用一个正态总体的统计量分布:估计量的分布函数,概率论基础,概率论,机器学习,人工智能

2)μ未知、未知时(S已知),选用一个正态总体的统计量分布:估计量的分布函数,概率论基础,概率论,机器学习,人工智能

推导过程:

1、μ未知、已知时,求μ的1-α置信区间:

估计量的分布函数,概率论基础,概率论,机器学习,人工智能标准正态分布的概率密度图像:估计量的分布函数,概率论基础,概率论,机器学习,人工智能,为标准正态分布的上α/2分位点:满足P{X>}= 。

U~N(0,1),由图像可明显看出U的1-α置信区间两个端点为-和,即

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

可以推出μ的1-α置信区间为估计量的分布函数,概率论基础,概率论,机器学习,人工智能

①求出样本均值  ②查表得标准正态分布上分位点的值,根据已知的和n计算出 ③用样本均值加、减,得到置信区间的两个端点。

2、μ未知、未知,S已知时,求μ的1-α置信区间:

估计量的分布函数,概率论基础,概率论,机器学习,人工智能,t分布的概率密度f(x)图像:

同理可得μ的1-α置信区间为估计量的分布函数,概率论基础,概率论,机器学习,人工智能

①求出样本均值  ②查表得t分布上分位点的值,根据已知的S和n计算出 ③用样本均值加、减,得到置信区间的两个端点。


题型:μ未知,已知,求参数μ的置信水平为0.95的置信区间

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

直接代置信区间的计算公式:估计量的分布函数,概率论基础,概率论,机器学习,人工智能

题型:μ未知,已知,求参数μ的置信水平为0.95的置信区间 

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

直接代置信区间的计算公式:

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

★题型:综合题,出现随机变量函数Y=lnx

估计量的分布函数,概率论基础,概率论,机器学习,人工智能

估计量的分布函数,概率论基础,概率论,机器学习,人工智能


估计量的分布函数,概率论基础,概率论,机器学习,人工智能

(2)直接代置信区间的计算公式,这里要特别注意样本均值的计算!估计量的分布函数,概率论基础,概率论,机器学习,人工智能

(3)比较巧妙!由(2)小题的结论,一步一步凑出置信区间的形式估计量的分布函数,概率论基础,概率论,机器学习,人工智能

题型:求连续型总体的数学期望 

估计量的分布函数,概率论基础,概率论,机器学习,人工智能文章来源地址https://www.toymoban.com/news/detail-762452.html

到了这里,关于概率论第七章 参数估计 点估计、区间估计(置信区间)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《统计学》——思考题第七章参数估计(贾俊平)

    目录 1、解释估计量和估计值。 2、简述评价估计量好坏的标准。  3、怎样理解置信区间? 4、解释 95%的置信区间。 5、的含义是什么? 6、解释独立样本和匹配样本的含义。 7、在对两个总体均值之差的小样本估计中,对两个总体和样本都有哪些假定?  8、简述样本量与置信

    2024年02月09日
    浏览(29)
  • 【状态估计】概率论基础

    《机器人学的状态估计》是入行SLAM的经典书籍之一,其中有大量的公式相关的内容,看起来还是比较艰涩的。最近重新读一遍,顺便将其中的一些内容记录下来,方便以后回看。 定义 定义 x x x 为区间 [ a . b ] [a.b] [ a . b ] 上的随机变量,服从某个 概率密度函数 p ( x ) p(x) p

    2024年04月11日
    浏览(41)
  • 【基础知识-概率论】似然、似然函数、极大似然估计(最大似然估计)

    在已知一些参数的情况下,预测接下来结果的可能性 在 结果产生之前 ,通过环境中的参数,预测事件发生的概率 例:抛硬币 假定硬币的材质均匀,其抛出落地结果为正面和反面的概率都是0.5 这个概率在结果发生前才有意义,在发生后,抛硬币的结果就确定了 跟概率相反,

    2024年01月23日
    浏览(34)
  • 【小呆的概率论学习笔记】抽样调查之用抽样样本估计母体数字特征

    1. 随机变量的数字特征 随机变量本质上是一个随机数,他以概率的形式取任何可能的取值,但是随机变量取值却有一定的规律,我们可以称之为随机变量的数字特征。最简明、最常用的随机变量的数字特征就是均值(或者说期望)和方差。 1.1 随机变量的均值(期望) 随机变

    2024年02月01日
    浏览(81)
  • [JavaScript] 第七章 对象

    🌹作者主页:青花锁 🌹简介:Java领域优质创作者🏆、Java微服务架构公号作者😄 🌹简历模板、学习资料、面试题库、技术互助 🌹文末获取联系方式 📝 [Java项目实战] 介绍Java组件安装、使用;手写框架等 [Aws服务器实战] Aws Linux服务器上操作nginx、git、JDK、Vue等 [Java微服务

    2024年02月02日
    浏览(115)
  • 第七章 图论

    第七章 图论 一、数据结构定义 图的邻接矩阵存储法 图的邻接表存储法 把所有节点存储为节点数组,每个节点里有自己的数据和一个边指针,这个边指针相当于一个链表的头指针,这个链表里存放所有与这个节点相连的边,边里存放该边指向的节点编号和下一条边指针 图的

    2024年02月14日
    浏览(45)
  • python第七章(字典)

    一。字典(类型为dict)的特点: 1.符号为大括号 2.数据为键值对形式出现 3.各个键值对之间以逗号隔开 格式:str1={\\\'name\\\':\\\'Tom\\\'}  name相当于键值(key),Tom相当于值 二。空字典的创建方法 三。字典的基本操作(增删改查) 1.字典的增加操作:字典序列[key] = 值 注意点:如果存

    2024年01月24日
    浏览(43)
  • 第七章金融中介

             金融中介是通过向资金盈余者发行 间接融资合约( 如存款单),并和资金短缺者达成 间接投资合约 (发放信贷)或购买其发行的证券,在资金供求方之间融通资金,对资金跨期、跨域进行优化配置的金融机构。         金融体系由金融市场和金融中介构成,以银行业为

    2024年02月04日
    浏览(40)
  • 数据结构第七章

    图(Graph)G由两个集合V和E组成,记为G=(V, E),其中V是顶点的有穷非空集合,E是V中顶点偶对的有穷集合,这些顶点偶对称为边。V(G)和E(G)通常分别表示图G的顶点集合和边集合,E(G)可以为空集。若EG)为空,则图G只有顶点而没有边。 子图:假设有两个图G=(V,E)和G1=(V1,E1);如果V1

    2024年02月03日
    浏览(50)
  • 第七章 测试

    7.1.1 选择程序设计语言 1. 计算机程序设计语言基本上可以分为汇编语言和高级语言 2. 从应用特点看,高级语言可分为基础语言、结构化语言、专用语言 01 有理想的模块化机制; 02 可读性好的控制结构和数据结构; 03 便于调试和提高软件可靠性; 04 编译程序发现程序错误的

    2024年02月08日
    浏览(66)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包