关于credal set和credal decision tree的一点思考(其实就是论文笔记)

这篇具有很好参考价值的文章主要介绍了关于credal set和credal decision tree的一点思考(其实就是论文笔记)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

阅读Abellán老师的Credal-C4.5时,发现好难。。。然后又额外补充了一些论文,终于稍微懂一点点了,所以记录如下。

credal set在DS theory的定义如下 [1]:
关于credal set和credal decision tree的一点思考(其实就是论文笔记),决策树,论文阅读,算法
这句话的意思是(证据理论中的)credal set是一个概率的凸集,这里面的概率p(x)受到上界pl函数和下界bel函数的控制(约束),而p(x)是不定的,从而构成了一个集合。这个东西往外推广,得到如下形式:
l ( x ) ≤ p ( x ) ≤ u ( x ) l(x)\leq p(x) \leq u(x) l(x)p(x)u(x)
其中 l ( x ) l(x) l(x) u ( x ) u(x) u(x)是已知的下界和上界,这样的概率(泛函?)都称为是credal set。
那么credal set 是一个集合,这个东西怎么用起来呀?有的论文提出使得credal set的不确定信息量取得最大的模型是一个可用的模型,因此我们只要获得使得熵(这里可以是Shannon熵)取得最大的概率向量 p p p,就可以了。想象一下,这是不是变成了一个有约束规划?目标方程是某种熵比如Shannon熵,约束条件是我刚刚给定的下界和上界。
关键概念总结: credal set,credal set的熵,credal set的最大熵,这些在近似的论文里很常见。

再回到credal decision tree。credal decision tree就是把信息论里面的香农熵全部换成了credal set的最大熵。其中credal set K ( Z ) K(Z) K(Z)和用的熵 H ∗ ( K ( Z ) ) H^*(K(Z)) H(K(Z))是这么给的(其中 s s s是一个参数,建议值1或2,当 s ∈ ( 0 , 2 ] s\in(0,2] s(0,2]时优化很慢):
关于credal set和credal decision tree的一点思考(其实就是论文笔记),决策树,论文阅读,算法
所以credal decision tree就是用 H ∗ ( K ( Z ) ) H*(K(Z)) H(K(Z))替换决策树中的香农熵,就可以了。不信的话可以看 [2] 的Example 2,公式如下:
关于credal set和credal decision tree的一点思考(其实就是论文笔记),决策树,论文阅读,算法
可以看到Imprecise Information Gain 是不是和传统的Information Gain 差不多?就是用credal set的最大熵换了下香农熵。

另外当 s ∈ ( 0 , 2 ] s\in(0,2] s(0,2]时优化很慢,作者直接给出了 s = 1 s=1 s=1时使得credal set熵最大的 p p p,用这个 p p p直接算最大熵:
关于credal set和credal decision tree的一点思考(其实就是论文笔记),决策树,论文阅读,算法

参考文献:
[1] Requirements for total uncertainty measures in Dempster–Shafer theory of evidence
[2] Credal-C4.5: Decision tree based on imprecise probabilities to classify noisy data文章来源地址https://www.toymoban.com/news/detail-519221.html

到了这里,关于关于credal set和credal decision tree的一点思考(其实就是论文笔记)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [RPC]关于RPC的一点理解

    以下内容仅为个人理解,不作正确性保证,感谢批评指正 在分布式计算中,远程过程调用 (RPC) 是指计算机程序导致过程(子例程)在不同的地址空间(通常在共享网络上的另一台计算机上)中执行, 它的编码就好像是普通(本地)过程调用一样,程序员没有 显式 编码远程

    2024年02月10日
    浏览(29)
  • 关于视觉3d目标检测学习像素深度的一点理解

    在真实世界的一个物体,可以通过相机矩阵将其投影到像素坐标系上 但是,在像素坐标系上的像素,由于相机的原理,导致它的深度信息已经没有了,所以原理上是没法得到其真实深度的(即3d位置) 那么现在的深度学习方法又为什么能预测出物体的深度呢? 个人理解: 大概

    2024年01月25日
    浏览(40)
  • 关于小程序微信登录后端设计的一点分享

    我们知道微信小程序对于微信登录的设计其实是给到了一个微信login的功能接口,其中响应成功会返回一个临时凭证码(时间大概是5分钟)code,这个临时的凭证码是从https://api.weixin.qq.com/sns/jscode2session获取openId的必带参数。下图示微信登录过程的时序图:  这里我们只介绍到

    2024年02月10日
    浏览(27)
  • Flutter关于StatefulWidget中State刷新时机的一点实用理解

    刚入门flutter开发,使用StatefulWidget踩了很多坑,就我遇到典型问题谈谈见解。 1.initState方法只会在控件初始化的时候执行一遍。 2.控件内部执行setState方法,则会每次执行build方法。 3.控件销毁会执行dispose方法,所以一些未释放的资源可以在该方法中执行,例如计时器。 4.使

    2024年02月10日
    浏览(32)
  • [数学建模] 0、关于数学建模的一点看法&付费专栏食用说明

    1、前言 在大学期间,几次参加数学建模的经历给我带来的印象还是很深

    2024年02月15日
    浏览(29)
  • 关于工作流开发前端选型的一点个人见解(bpmn.js与LogicFlow)

    掘金2023年度人气创作者打榜中,快来帮我打榜吧~ https://activity.juejin.cn/rank/2023/writer/747323639208391?utm_campaign=annual_2023utm_medium=self_web_shareutm_source=MiyueFE 首先需要明确的一点是,本文的出发点 纯粹是针对工作流开发 的场景的选型对比,其他业务场景下建议重新调研。 什么是工作

    2024年02月20日
    浏览(36)
  • 决策树(Decision Tree)

    决策树,顾名思义,就是帮我们做出决策的树。现实生活中我们往往会遇到各种各样的抉择,把我们的决策过程整理一下,就可以发现,该过程实际上就是一个树的模型。 决策树分为分类树和回归树两种,分类树对离散变量做决策树,回归树对连续变量做决策树,这里我们只

    2024年02月11日
    浏览(33)
  • 机器学习 | 决策树 Decision Tree

    —— 分而治之,逐个击破                 把特征空间划分区域                 每个区域拟合简单模型                 分级分类决策 举例: 特征选择、节点分类、阈值确定                 熵本身代表不确定性,是不确定性的一种度量。     

    2024年02月03日
    浏览(29)
  • 【机器学习基础】决策树(Decision Tree)

    🚀 个人主页 :为梦而生~ 关注我一起学习吧! 💡 专栏 :机器学习 欢迎订阅!后面的内容会越来越有意思~ ⭐ 特别提醒 :针对机器学习,特别开始专栏:机器学习python实战 欢迎订阅!本专栏针对机器学习基础专栏的理论知识,利用python代码进行实际展示,真正做到从基础

    2024年02月20日
    浏览(27)
  • 机器学习算法之决策树(decision tree)

    决策树(Decision Tree,又称为判定树)算法是机器学习中常见的一类算法,是一种以树结构形式表达的预测分析模型。决策树属于监督学习(Supervised learning),根据处理数据类型的不同,决策树又为分类决策树与回归决策树。最早的的决策树算法是由Hunt等人于1966年提出,Hunt算法

    2024年02月13日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包