信息准则:AIC、BIC、FPE、LILC

这篇具有很好参考价值的文章主要介绍了信息准则:AIC、BIC、FPE、LILC。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.简介

信息准则(information criterion):经常地,对一堆数据进行建模的时候,特别是分类和回归模型,我们有很多的变量可供使用,选择不同的变量组合可以得到不同的模型,例如我们有5个变量,2的5次方,我们将有32个变量组合,可以训练出32个模型。但是哪个模型更加的好呢?就用信息准则来衡量

下面介绍四种信息准则方法:AIC、BIC、FPE、LILC。

信息准则有两部分组成,一部分是模型拟合情况e_factor ,如残差方差e_var(对y的实际值和预测值之差求方差),一部分是模型参数model_factor。如下:
info_criteria_value = e_factor + model_factor

其中e_factor = n_samples * np.log(e_var)。e_var为残差方差,n_samples为样本数。

下面假设,n_theta是参数的数量。

2.AIC

赤池信息量准则(Akaike information criterion,AIC)是1971年由日本统计学家赤池弘次创立和发展的。赤池信息量准则建立在信息熵的概念基础上。

在一般的情况下,AIC可以表示为:

AIC=2*n_theta−2ln(L)

其中:n_theta是参数的数量,L是似然函数。

使AIC函数达到最小的模型被认为是最优模型。

我们可以用残差方差重写AIC公式,让n_samples为样本数,e_var为残差方差,那么AIC变为:
AIC=2n_theta+n_samplesln(e_var)。
即:

model_factor = 2 * n_theta
e_factor = n_samples * np.log(e_var)
info_criteria_value = e_factor + model_factor

该准则的指导思想是认为一个拟合模型的好坏可以从两方面去考察:一方面是大家非常熟悉的常用来衡量拟合程度的似然函数值;另一方面是模型中未知参数的个数。
通常似然函数值越大说明模型拟合的效果越好。模型中未知参数个数越多,说明模型中包含的自变量越多;自变量越多,模型变化越灵活,模型拟合的准确度就会越高。
模型拟合程度高是我们所希望的,但是我们又不能单纯地以拟合精度来衡量模型的好坏,因为这样势必会导致未知参数的个数越多越好。
未知参数越多,说明模型中自变量越多,未知的风险越多。而且参数越多,参数估计的难度就越大,估计的精度也越差。所以一个好的拟合模型应该是一个拟合精度和未知参数个数的综合最优配置。

3.BIC

BIC= Bayesian Information Criterions,贝叶斯信息准则。
BIC的惩罚项比AIC的大,考虑了样本数量,样本数量过多时,
可有效防止模型精度过高造成的模型复杂度过高。

公式:

model_factor = n_theta * np.log(n_samples)
e_factor = n_samples * np.log(e_var)
info_criteria_value = e_factor + model_factor

4.FPE

最终预报误差准则(Final Prediction Error Criterian,FPE)对AR模型的一种定阶法。此方法是赤池弘次于1969年提出的所谓改进的残差方差图方法。
公式为:

model_factor = n_samples * np.log(
    (n_samples + n_theta) / (n_samples - n_theta)
)
e_factor = n_samples * np.log(e_var)
info_criteria_value = e_factor + model_factor

5.Lilc

Khundrin’s law of iterated logarithm criterion (LILC)。公式如下,和BIC类似,多了个对样本的log。文章来源地址https://www.toymoban.com/news/detail-442354.html

model_factor = 2 * n_theta * np.log(np.log(n_samples))
e_factor = n_samples * np.log(e_var)
info_criteria_value = e_factor + model_factor

6.代码汇总

if self.info_criteria == "bic":
    model_factor = n_theta * np.log(n_samples)
elif self.info_criteria == "fpe":
    model_factor = n_samples * np.log(
        (n_samples + n_theta) / (n_samples - n_theta)
    )
elif self.info_criteria == "lilc":
    model_factor = 2 * n_theta * np.log(np.log(n_samples))
else:  # AIC
    model_factor = +2 * n_theta

e_factor = n_samples * np.log(e_var)
info_criteria_value = e_factor + model_factor

到了这里,关于信息准则:AIC、BIC、FPE、LILC的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 物理信息神经网络PINNs : Physics Informed Neural Networks 详解

    本博客主要分为两部分: 1、PINN模型论文解读 2、PINN模型相关总结 基于物理信息的神经网络(Physics-informed Neural Network, 简称PINN),是一类用于解决有监督学习任务的神经网络,同时尊重由一般非线性偏微分方程描述的任何给定的物理规律。 原理 :它不仅能够像传统神经网

    2024年02月02日
    浏览(52)
  • dephi RTI (Runtime Type Information)获取运行时的控件信息

    var Edit: TComponent; begin Edit := FindComponent(\\\"Edit1\\\"); If Edit is TEdit then TEdit(Edit).Text := \\\'你好 Delphi7\\\'; end;     RTTI(RunTime Type Information): 运行时类型信息, 就是在程序运行后也能得到类型(譬如 TButton 类)的信息.   这在早期主要用于 IDE 设计时, 譬如把一个 Button 放到窗体后, 此时我们的程序

    2024年02月15日
    浏览(40)
  • kkfileview阿里云安全扫描:威胁类型敏感信息回显 (Sensitive Information Response)

    在阿里云部署的kkfileview,阿里云安全性扫描有漏洞 网络流量内容GET /getCorsFile?urlPath=file:///etc/passwd HTTP/1.1 Host: XXX.XXX.XXXX.XXX:80XX User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.6.2333.33 Safari/537.36 AliyunTaiShiGanZhi https://www.aliyun.com/product/sas Accept-Encod

    2023年04月20日
    浏览(49)
  • 【读点论文】PICK Processing Key Information Extraction from Documents...实体关系抽取,从图像数据抽取具有自然语义信息的结构化数据

    关键信息抽取 (Key Information Extraction, KIE)指的是是从文本或者图像中,抽取出关键的信息。 针对文档图像的关键信息抽取任务作为OCR的下游任务 ,存在非常多的实际应用场景,如表单识别、车票信息抽取、身份证信息抽取等。然而,使用人力从这些文档图像中提取或者收集关

    2024年02月04日
    浏览(50)
  • 使用AIC函数评估条件logistic回归模型的AIC值(R语言)

    使用AIC函数评估条件logistic回归模型的AIC值(R语言) 在统计建模中,AIC(赤池信息准则)是一种常用的模型选择准则,用于比较不同模型的拟合能力和复杂度。AIC值越小表示模型的拟合能力越好。 在R语言中,我们可以使用AIC函数来计算条件logistic回归模型的AIC值。条件logi

    2024年02月03日
    浏览(49)
  • AIC8800 WIFI调试记录

    问题:AIC8800 USB 接口WIFI模块无法识别 现象: 上层:WIFI打不开 驱动层:usb无法识别到AIC8800模块 调试思路: 先看AIC8800硬件模块是否正常,用万用表测芯片供电是否正常 测量WL_PMU_EN发现没有3.3V,是mV,表示没有供电,找的这个引脚接到哪里去了 可以发现这个引脚接到主控C

    2024年02月16日
    浏览(36)
  • 视源aic800wifi/bt调试

    本人调试了视源的3款WiFi、bt模块。分别是: aic88002.1ds 该模块是双频的WiFi/bt模块,含2.4g/5g aic8800dcs.2 该模块是单频的WiFi/bt模块 aic8800dws.2 该模块是单频的WiFi模块 这3款当然了,价格方面肯定是依次从高到低的;配置方面近乎大同小异的。后面会依次说一下这3款的配置,以下

    2024年02月03日
    浏览(36)
  • 决策准则之赫维兹准则、萨维奇遗憾准则、拉普拉斯不充分理由准则、沃尔德准则

    赫维兹准则是一种决策准则,用于在不确定条件下进行决策。考虑决策者对不同结果的态度,通过调整“乐观度参数”(optimism parameter)来权衡最优和最坏结果的可能性。 “乐观度参数”在0到1之间取值: 当乐观度参数为0时,决策者选择最坏的结果 当乐观度参数为1时,决策者

    2024年02月12日
    浏览(41)
  • 【ARM 常见汇编指令学习 6 - bic(位清除), orr(位或), eor(异或)】

    上篇文章:ARM 常见汇编指令学习 5 – arm64汇编指令 wzr 和 xzr 下篇文章:ARM 常见汇编指令学习 7 - LDR 指令与LDR伪指令及 mov指令 BIC 指令 指令格式 根据operand哪个位为1,清除Rn对应的位,然后将结果存入Rd。 使用例子 : 第1条汇编代码表示将 r0 寄存器的 bit13 清0,其它bit不变。

    2024年02月13日
    浏览(71)
  • linux | RK3568 Debian AIC8800移植

    一、WiFi        1.看RK的文档,把DTS节点配好 然后直接从安卓13的项目中把驱动给移过来,文件位置是 kernel/drivers/net/wireless/rockchip_wlan/,然后在Makefile和Kconfig中加入对应的宏 然后再在rockchip_linux_defconfig中加入对应的宏: 然后编译,编译后出错: 然后编译就成功了 先手动将

    2024年01月17日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包