检验统计量的深度认识(乱七八糟的草稿)

这篇具有很好参考价值的文章主要介绍了检验统计量的深度认识(乱七八糟的草稿)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

上文总结:

① ABtest主要是对比两组数据,判断变量的影响。
② 但我们知道,数据之间的差异,既有可能是随机误差,也可能是变量导致的本质差异。
③ 所以,我们需要根据随机误差的概率,判断数据差异究竟是随机误差,还是由变量影响导致的本质差异。

  • 如果随机误差概率大,则无法证明变量是否有影响
  • 如果随机误差概率极小,则可认为数据差异是变量影响导致的本质差异。
    ————————————————
    原文链接:https://blog.csdn.net/weixin_50348308/article/details/129732894

根据随机误差的概率大小,判断两个数据差异是随机误差,还是本质差异的方式,是统计学中的显著性检验本质。

那么显著性检验,是如何计算随机误差的概率?又如何判断概率大小的呢?

二、显著性检验原理

假设检验中的显著性检验,是根据一组数据的分布规律,来计算数据差异的随机性概率大小(即随机误差的概率),进而根据概率判断数据差异究竟是随机差异,还是变量导致的本质差异。

因此,我们需要先了解数据的分布规律。

1. 数据分布规律

在生活中,大量数据通常呈现出对应的分布规律,我们之前学过的正态分布,则是非常普遍的数值分布规律。
如果数据服从正态分布,那么我们是可以通过数学公式很快计算出数据差异的概率值,进而可以根据概率来判断数据差异的情况。
因此,我们主要讲解的是数据服从正态分布时的显著性检验。
首先,我们来简单回顾一下正态分布。

1.1 回顾正态分布

如果一个数据集服从正态分布N(μ,σ),那么这个数据集里的数据分布图像就如下图所示:
检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
均值μ表示曲线的中间位置,标准差σ表示曲线的离散程度。
检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
它对应的概率分布规律就是,数据大概率会落在均值μ的附近,越偏离均值μ,概率越小。
检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
在正态分布中,只要计算除了均值的差异程度,就可以相应地计算出对应的概率。
接下来,我们先看看正态分布中的均值偏离程度及其对应的随机误差概率是如何计算的。

2. 计算均值偏离程度

在正态分布中,均值与均值之间的偏差程度,通常用检验统计量表示。
在理解检验统计量的计算前,先了解一下【中心极限定理】

2.1 中心极限定理

  • 中心极限定理:当样本量足够大时,样本均值的分布近似服从正态分布
  • Excel 实例验证中心极限定理如下图(近似服从正态分布,如果样本量更大,则更接近正态)
    检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
    中心极限定理,是显著性检验的基础理论。

2.2 认识检验统计量

继续-检验统计量
检验统计量是根据两个数据的均值之差,除以标准误得到的。
它表示两个数据的均值相差几个标准误。(图为z检验时的检验统计量)
检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
总体标准差:σ(抽单个数值作为样本,抽样次数为n)
样本标准差:所有样本偏离样本均值的程度S= ( Σ ( x − x − ) 2 ) \sqrt{(Σ(x-x^-)²)} (Σxx2)
(抽单个数值作为样本,抽样次数为n)

  • 对所有样本组合得到的均值,会等于总体均值。此时:

样本均值的标准误差:标准差的标准差 ( Σ ( S − S − ) 2 ) \sqrt{(Σ(S-S^-)²)} (ΣSS2) ,S为每一个样本标准差,总和即为所有样本标准差的标准差
(抽几个数值的样本均值为样本,抽样次数为所有可能的样本组合)

  • 但实际我们无法抽取多次样本,来计算样本均值的标准误差,因此一般采用抽取一次样本进行估算,估算公式如下:
    标准误= 标准 差 2 / n \sqrt{标准差²/n} 标准2/n = 方差 / n \sqrt{方差/n} 方差/n = σ 2 / n \sqrt{σ²/n} σ2/n
    标准误:当n越大,则表示样本均值与总体均值的误差越小;
    当n接近于总体的数量N时(N为无限总体),则z值为0,表示样本均值是总体均值的无偏估计。
    当N不是无限总体时,Z值一般有不一样的计算公式:
    检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
    当样本量n相对较小时,则样本均值与总体均值的偏差也会更大。

用中心极限定理理解更直接,抽样次数增加,样本均值服从均值为总体均值,方差为(总体方差/样本容量)的正态分布。

  • 为什么有些资料写着:Z检验,一般要求样本量n>30(或样本量足够大);
  • 因为只有当样本量足够大时,样本均值才能近似服从正态分布,进而可以正确计算出检验统计量。
    检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
*因此,当样本容量足够大的时候,样本是可以不需要服从正态分布的!!!????
但是,也有个困惑:多次抽样后的样本均值数据,是否能够代表两组原数据进行检验呢?
——【有待验证,但私以为是不行的】
因为虽然样本均值服从正态分布,但若总体不服从正态分布,那么样本均值的检验,是否能够代表总体的检验呢???这个尚未有明确定论。
  • 回到检验统计量z值
    👉如果检验统计量越大,说明均值偏离越远;
    👉如果检验统计量越小,说明均值偏离越近。
    检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
  • 为什么两组数据的差异,不直接用x-μ就好,非得用检验统计量呢?
    理由1:即使是x-μ的值相同,在不同正态分布下,根据x-μ计算出的对应概率是不同的。
    (不同的正态分布,有不同的概率密度函数,分门别类去计算太麻烦,可统一转为标准正态分布后计算)
    理由2:计算概率值,是通过标准正态分布的概率密度函数计算得到的。
    (Excel工具基本是基于标准正态分布的概率密度函数进行计算的)

检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
因此,可以通过将普通正态分布,转化为标准正态分布:N(μ1,σ²)→N(0,1)
转化公式为:z= x − μ σ \frac{x-μ}{σ} σxμ,它表示,均值相差几个标准差。
(这就像“一头牛值几头猪”一样,用σ作为单位)

  • 这样就可以用标准正态分布的概率密度函数来计算概率了。

这时,大大的困惑困住了我!!!!!!!
为什么Z检验统计量公式,跟转化为标准正态分布的公式,不一样呢?
检验统计量:z= x − μ σ 2 n \frac{x-μ}{\sqrt{\frac{σ²}{n}}} nσ2 xμ
转为标准正态公式:z= x − μ σ \frac{x-μ}{σ} σxμ

我觉得,我......不理解......但就算不管要不要转化为标准正态分布这档子事,光凭检验统计量的公式,也是可以继续应用显著性检验的............唉...

检验统计量:z= x − μ σ 2 n \frac{x-μ}{\sqrt{\frac{σ²}{n}}} nσ2 xμ
计算出检验统计量后,我们就可以计算出对应的随机误差概率值。

3. 计算随机误差概率

著名的【正态分布经验法则-3σ】里的概率,就是通过计算出来的:
-大约68%的观察值将分布在均值 ±1 倍标准差之间,即其 z值在 -1~1 之间;
-大约95%的观察值将分布在均值 ±2 倍标准差之间,即其 z值在 -2~2 之间;
-几乎全部(99.7%)的观察值将分布在均值 ±3 倍标准差之间,即其 z值在 -3~3 之间。

检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论
(ps:切比雪夫定理,跟正态分布经验法则。。。并不是一回事)
检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论

  • 继续随机误差概率
    随机误差概率:两组数据的差异,随机性发生的概率。

3.1 回顾随机误差概率

(算了,把我做的课内容放上来吧…)
检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论

检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论

小猫咪太可爱了,屋里女猪脚

回顾总结:要计算服从正态分布下的随机误差概率。

3.2 左、右尾 P值

概率密度函数,本身就是一个导函数。它的积分(即面积),就是原函数的值。
左尾 P值,是正常概率密度函数下的积分值。
右尾 P值 = 1-左尾P值
很多人容易混淆,双尾P值的计算,这里要做澄清:

👉 z值<0时,表示在正态中心左侧:

  • 计算出的左尾 P值为-∞到z的积分值;
  • 计算出的右尾 P值为z到+∞的积分。

👉 z值>0时,表示在正态中心右侧:

  • 计算出的左尾 P值为-∞到z的积分值;
  • 计算出的右尾 P值为z到+∞的积分。

左右为并不会因为z的正负,而有不同的计算公式!!!!
检验统计量就是将样本数值转换成标准正态分布,机器学习,算法,概率论

👉 z值<0时,表示在正态中心左侧:

我们可以通过数学相关的工具,直接求出检验统计量所对应的随机误差概率值,简称P值。
例如下图,是我用Excel计算出的P值,你暂时只需要简单了解。
(插工具图)
计算出检验统计量对应的随机误差概率P值后,接下来,我们将根据P值进行判断数据差异的情况。

判断随机误差概率
我们知道,当随机误差概率P值较大时,无法判断出两组数据的差异,究竟是随机出现的差异,还是变量影响导致的本质差异。
在显著性检验中,这种情况通常认为是数据差异不显著,两组数据本质无差异。
只有当随机误差概率P值极小时,我们才能认为两组数据的差异,不太可能是随机出现的,应该是变量影响导致的本质差异。
在显著性检验中,这种情况通常认为是数据差异显著,两组数据本质有差异。

那么随机误差概率P值,要多小,才能认为是两组数据的差异不可能是随机误差,而是变量影响导致的本质差异呢?
这就需要我们人为去规定一个概率P值的界限,而这个界限通常称为显著性水平α。
在统计学应用中,通常将这个显著性水平α设置为0.05,它表示样本均值落在距离总体均值大约正负1.96个标准差位置之外的两侧区域时,即检验统计量为正负1.96时,计算出的随机误差概率值0.05。
正态分布曲线下的面积,即为概率值。
显著性水平α所对应的界限范围内的中间区域,一般称为置信区间。
显著性水平α所对应的界限范围外的两侧区域,一般称为拒绝域。
(插图)
如果计算出的P值小于显著性水平α(即P值<0.05),说明P值对应的检验统计量落在拒绝域内,统计学上通常称为 差异显著。
这时,随机误差概率P值偏小,我们可以认为两组数据的差异几乎不太可能是随机出现的,应该是变量导致的本质差异。
因此,P值<α,表示差异显著,我们认为这两组数据是本质差异。
就比如,我们在池塘A里几乎不可能捞出鳄鱼,但在池塘B却一次捞上鳄鱼,因此我们认为池塘A和池塘B本质是不同的,有可能池塘A是普通水池,池塘B是专业养殖鳄鱼池。

如果计算出的P值大于显著性水平α(即P值>0.05),P值对应的检验统计量落在置信区间里,统计学上通常称为 差异不显著。
这时,随机误差概率P值较大,说明这两组数据的差异,既有可能是随机出现的,也有可能是变量导致的本质差异。
因此,P值>α,表示差异不显著,我们无法判断这两组数据本质上是否有差异。
就比如,在池塘A里,有较大可能捞到鳄鱼,在池塘B一次捞上鳄鱼,并无法说明池塘A和池塘B本质是否相同。有可能池塘A是野生水池,池塘B是专业养殖鳄鱼池;也有可能池塘A、B都是专业养殖鳄鱼池。

以上就是数据服从正态分布时,对两个数据差异进行显著性检验的统计学原理。
显著性检验原理总结
总结来看,就是当数据服从正态分布时,先计算出两组数据均值的偏差程度(即检验统计量),再计算出对应的随机误差概率(即随机误差概率P值),最后判断随机误差概率(规定显著性水平α),明确数据差异的显著性。
(插图)
如果P值>α,说明数据差异不显著,无法判断差异是随机误差,还是本质差异。
如果P值<α,说明数据差异显著,认为是变量影响导致的本质差异。

刚才介绍的基于正态分布的假设检验,是一个总体数据服从正态分布情况下,对样本均值与总体均值差异的检验,属于单样本检验。这种统计情况一般使用单样本Z检验。
例如检验一小批人的薪资均值(样本均值)与全国薪资均值(总体均值)的差异情况。
除了单样本Z检验外,还有其他的显著性检验方式。

显著性检验方式及区别
实际进行均值差异的显著性检验时,会有多种检验方式。下图是我们常用的4种检验统计方式:单样本z检验、双独立样本z检验、单样本t检验、双独立样本t检验。
不同检验方式的差别在于,根据数据统计情况的不同,导致检验统计量的计算公式不同。
(插图)
例如,在实际收集数据时,总体数据量太大,我们很难采集到总体数据。那么这种情况下,我们可以用服从正态分布的样本来代替总体。用一个样本代替一个总体的单样本检验,一般使用单样本T检验方式。
如果采集的数据是两个服从正态分布的样本数据,且这两个样本数据之间是相互独立的。那么就可以选择双样本独立T检验。
具体选择哪个检验方式,还是要因地制宜,根据根据不同的数据统计类型、不同的数据关系、不同的分布形态来选择。文章来源地址https://www.toymoban.com/news/detail-762695.html

到了这里,关于检验统计量的深度认识(乱七八糟的草稿)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【考研数学】概率论与数理统计 —— 第七章 | 参数估计(2,参数估计量的评价、正态总体的区间估计)

    设 X X X 为总体, ( X 1 , X 2 , ⋯   , X n ) (X_1,X_2,cdots ,X_n) ( X 1 ​ , X 2 ​ , ⋯ , X n ​ ) 为来自总体 X X X 的简单随机样本, θ theta θ 为未知参数,设 θ ^ = φ ( X 1 , X 2 , ⋯   , X n ) widehat{theta}=varphi(X_1,X_2,cdots,X_n) θ = φ ( X 1 ​ , X 2 ​ , ⋯ , X n ​ ) 为参数 θ theta θ 的一个点估

    2024年02月06日
    浏览(35)
  • 【统计】假设检验方法

    1. 不同检验方法 最小样本量 的确认 由统计量反推得到 2. 检验方法 方差齐性检验(F检验): 两个独立样本的方差差异检验,反映了平均值的代表性。方差齐次检验前提要近似正态分布。 正态性检验: 是否符合正态分布 似然比检验: 比较样本不同似然函数,检验其分布 参

    2024年02月05日
    浏览(32)
  • python统计(二)假设检验

    DescrStatsW.ztest_mean() statsmodels.stats.weightstats.DescrStatsW.ztest_mean(value=0, alternative=\\\'two-sided\\\') 参数 说明 value 假设的均值 alternative 备择假设的形式,可选值:‘two-sided’, ‘larger’, ‘smaller’ weightstats.ztest() statsmodels.stats.weightstats.ztest(x1, x2=None, value=0, alternative=\\\'two-sided\\\') 参数 说明

    2023年04月09日
    浏览(26)
  • SPSS统计教程:卡方检验

    本文简要的介绍了卡方分布、卡方概率密度函数和卡方检验,并通过SPSS实现了一个卡方检验例子,不仅对结果进行了解释,而且还给出了卡方、自由度和渐近显著性的计算过程。本文用到的数据\\\"2.2.sav\\\"链接为: https://url39.ctfile.com/f/2501739-875711187-f3dbb8?p=2096 (访问密码: 2096) 一.卡

    2024年02月10日
    浏览(29)
  • 统计基础:3.1_假设检验综述

      假设检验的思想和方法是根据小概率原理,具体地说当我们对问题提出原假设H0和备注假设H1,并要检验H0是否可信时,可以先假设H0是正确的,在此假设下,经过一次抽样,若发生小概率事件,可以根据“小概率事件在一次实验中几乎是不可能发生的”的理由,怀疑原假

    2024年02月11日
    浏览(30)
  • 数据的统计描述和分析——假设检验

    对总体X的分布律或分布参数作某种假设,根据抽取的样本观察值,运用数理统计的分析方法,检验这种假设是否正确,从而决定接受假设或拒绝假设. 1. 参数检验 :如果观测的分布函数类型已知,这时构造出的统计量依赖于总体的分布函数,这种检验称为参数检验.参数检验

    2024年02月14日
    浏览(34)
  • 统计学下的假设检验

            由于本人才疏学浅,再加上时间仓促,难免有疏漏之处,恳请批评指正.         数理统计: 以概率论为基础,研究如何有效的去搜集、整理、分析带随机性影响的数据         总体与样本: 研究对象的全体就称为总体          样本: 假设需要测试某一个指标

    2024年02月04日
    浏览(35)
  • 统计基础:1.1_正态分布及其检验

      正态分布(Normal distribution),也称“常态分布”,又名高斯分布(Gaussian distribution),最早由棣莫弗(Abraham de Moivre)在求二项分布的渐近公式中得到。C.F.高斯在研究测量误差时从另一个角度导出了它。P.S.拉普拉斯和高斯研究了它的性质。是一个在数学、物理及工程等

    2024年02月05日
    浏览(35)
  • 《统计学》——思考题第八章假设检验(贾俊平)

    目录 1、假设检验和参数估计有什么相同点和不同点? 2、什么是假设检验中的显著性水平?统计显著是什么意思? 3、什么是假设检验中的两类错误? 4、两类错误之间存在什么样的数量关系? 5、解释假设检验中的 P 值。 6、显著性水平与 P 值有何区别? 7、假设检验依据的

    2024年02月11日
    浏览(29)
  • 概率论与数理统计:第七章:参数估计 第八章:假设检验

    1.矩估计 p i ( θ ) p_i(θ) p i ​ ( θ ) 、 f ( x i , θ ) f(x_i,θ) f ( x i ​ , θ ) ,用矩估计法来估计未知参数θ { X ˉ = E ( X ) 1 n ∑ i = 1 n X i 2 = E ( X 2 ) left{begin{aligned} bar{X} = E(X) \\\\ dfrac{1}{n}sumlimits_{i=1}^nX_i^2 = E(X^2) end{aligned}right. ⎩ ⎨ ⎧ ​ X ˉ = n 1 ​ i = 1 ∑ n ​ X i 2 ​ = ​ E

    2024年02月11日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包