机器学习---决策树算法(CLS、ID3、CART)

这篇具有很好参考价值的文章主要介绍了机器学习---决策树算法(CLS、ID3、CART)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 决策树

决策树(Decision Tree)又称为判定树,是运用于分类的一种树结构。其中的每个内部结点

(internal node)代表对某个属性的一次测试,每条边代表一个测试结果,叶结点(leaf)代表某

个类(class)或者类的分布(class distribution),最上面的结点是根结点。

决策树提供了一种展示在什么条件下会得到什么类别这类规则的方法。

下例是为了解决这个问题而建立的一棵决策树,从中可以看到决策树的基本组成部分:决策结点、

分支和叶结点。

下图给出了一个商业上使用的决策树的例子,他表示了一个关心电子产品的用户是否会购买电脑的

知识用它可以预测某条记录或者某个人的购买意向。

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

这棵决策树对销售记录进行分类,指出一个电子产品消费者是否会购买一台计算机“buys_

computer”。每个内部结点(方形框)代表对某个属性的一次检测。每个叶结点(椭圆框)代表一

个类:buys_computers=yes 或者 buys_computers=no

在这个例子中,特征向量为:

(age, student, credit rating, buys_computers)

被决策数据的格式为:

(age, student, credit rating)

输入新的被决策的记录,可以预测该记录隶属于哪个类。

总结:决策树是⼀种树形结构,本质是⼀颗由多个判断节点组成的树,其中每个内部节点表示⼀个

属性上的判断, 每个分⽀代表⼀个判断结果的输出, 最后每个叶节点代表⼀种分类结果。

2. CLS算法

CLS(Concept Learning System)算法是早期的决策树学习算法。它是许多决策树学习算法的基

础。CLS的基本思想是从一棵空决策树开始,选择某一属性(分类属性)作为测试属性。该测试属

性对应决策树中的决策结点。根据该属性的值的不同,可将训练样本分成相应的子集,如果该子集

为空,或该子集中的样本属于同一个类,则该子集为叶结点,否则该子集对应于决策树的内部结

点,即测试结点,需要选择一个新的分类属性对该子集进行划分,直到所有的子集都为空或者属于

同一类。

CLS算法存在的问题:

采用不同的测试属性及先后顺序将会产生不同的决策树。

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树 

3. ID3算法 

ID3决策树建立算法步骤:

决定分类属性集合;

对目前的数据表,建立一个节点N;

如果数据库中的数据都属于同一个类,N就是树叶,在树叶上标出所属的类(纯的类别);

如果数据表中没有其他属性可以考虑,则N也是树叶,按照少数服从多数的原则在树叶上标出所属

类别(不纯的类别);

否则,根据平均信息期望值E或GAIN值选出一个最佳属性作为节点N的测试属性;

节点属性选定后,对于该属性中的每个值:从N生成一个分支,并将数据表中与该分支有关的数据

收集形成分支节点的数据表,在表中删除节点属性那一栏;

如果分支数据表属性非空,则转第一步,运用以上算法从该节点建立子树。

常见决策树算法启发函数的比较:

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

ID3算法存在的缺点:

(1) ID3算法在选择根节点和各内部节点中的分⽀属性时,采⽤信息增益作为评价标准。信息增益的

缺点是倾向于选择取值较多的属性,在有些情况下这类属性可能不会提供太多有价值的信息。

(2) ID3算法只能对描述属性为离散型属性的数据集构造决策树。

4. C4.5算法

C4.5算法对于ID3算法的改进:

改进1:用信息增益率代替信息增益来选择属性

改进2:能够完成对连续值属性的离散化处理

改进3:能处理属性值缺失的情况

改进4:在决策树构造完成之后进行剪枝

假设按属性 A 划分 D 中的样本,且属性 A 根据训练数据的观测具有 v 个不同取值{ a1, a2, ..., aj,

..., av }。如果 A 是离散值,可依属性 A 将 D 划分为 v 个子集 { D1, D2, ..., Dj, ..., Dv }。其中,Dj

为 D 中的样本子集,它们在 A 上具有属性值 aj。这些划分将对应于从该节点A出来的分支。

信息增益度量偏向于对取值较多的属性进行测试,即它倾向于选择v较大的属性A。

举个极端的例子:考虑充当唯一标识的属性PID。对PID的分裂将产生大量划分(与样本个数一样

多),每个分类只包含一个样本,且每个划分都是纯的。

对属性PID划分得到的信息增益最大,显然,这种划分对分类没有用处。

C4.5使用分裂信息(split information)将信息增益规范化,选择具有最大信息增益率的属性作为分裂

属性。

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

Info(D) = 0.940            Info收入(D) = 0.911             Gain(收入) = 0.029

高收入的有 4 个;中等收入的有 6 个;低收入的有 4 个

SplitInfo收入(D) = - 4/14 * log4/14 - 6/14 * log6/14 - 4/14 * log4/14 = 1.557

GainRatio(收入) = Gain(收入) / SplitInfo收入(D) = 0.029 / 1.557 = 0.019 

对于连续值属性,按属性值大小从小到大排序,取每对相邻值中点作为可能的分裂点split_point。

假设一连续值属性共有N个不同的属性值,则可找到N-1个可能的分裂点。 检查每个可能分裂点,

取能使得信息增益最大的分裂点,将D分裂成 D1: A <= split_point 和 D2: A > split_point(一个分裂

点,二分法,二 叉树)。

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

C4.5不使用中点,而是直接使用一对值中较小的值作为可能的分裂点,如本例中将使用5, 6作为可

能分裂点。

在某些情况下,可供使用的数据可能缺少某些属性的值,例如

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

一种简单的办法是赋予它该属性最常见的值,例如将“晴”或“雨”赋予第6个实例的天气属性。

一种更复杂的策略是为 A 的每个可能值赋予一个概率 。

     Gain(A) = F ( Info(D) – InfoA (D)) 其中 F 为属性值未缺失的实例所占比例; 计算 Info(D) 和

InfoA (D) 时忽略属性值缺失的实例。

Info(D) = -8/13×log(8/13) - 5/13×log(5/13) = 0.961 bits

Info天气(D) = 5/13×(-2/5log(2/5) - 3/5×log(3/5)) + 3/13×(-3/3log(3/3) - 0/3×log(0/3)) +

5/13×(-3/5log(3/5) - 2/5×log(2/5)) = 0.747 bits

Gain(天气) = 13/14 × (0.961 - 0.747) = 0.199 bits

计算 SplitInfo 时,将缺失的属性值当作一个正常值进行计算, 本例中,当作天气有四个值,分别

是晴、多云、雨、?,再计算其 SplitInfo。

SplitInfo天气(D) = - 5/14×log(5/14) - 3/14×log(3/14) - 5/14×log(5/14) - 1/14×log(1/14) = 1.809 bits

GainRatio(天气) = Gain(天气) / SplitInfo天气(D) = 0.199 / 1.809

分裂时,将属性值缺失的实例分配给所有分支,但是带一个权重:

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

本例14个实例中共13个实例天气属性值未缺失: 其中5个实例的天气属性为“晴”,3个实例的天气

属性为“多云”, 5个实例的天气属性为“雨”。

本例14个实例中共1个实例天气属性值缺失,因此估算出天气属性值缺失的第6个实例: 天气是晴

的概率是5/13,天气是多云的概率是3/13,天气是雨的概率是5/13 。

所以 T1 情况可以划分为:湿度 <= 75    2玩             0不玩

                                          湿度 > 75      5/13玩        3不玩  

叶节点以 (N/E) 的形式定义, 其中 N 为到达该叶节点的实例数, E 为其中属于其它分类的实例

数。 例如,不玩(3.4/0.4) 表示3.4个实例到达“不玩”节点,其中0.4个实例 不属于“不玩”.

对于任一实例, 湿度 <=75 的可能性是 2.0/(2.0 + 3.4),湿度 >75 的可能性是 3.4/(2.0 + 3.4).

当湿度 <=75 时,分类为玩的可能性 = 100%,分类为不玩的可能性 = 0。

当湿度 >75 时,分类为玩的可能性 = 0.4/3.4=12%,分类为不玩的可能性 = 3/3.4=88%。

最终分类的概率分布为:玩 = 2.0/5.4×100% + 3.4/5.4×12% = 44%,不玩 = 3.4/5.4×88% = 56%

上述的决策树算法增长树的每一个分支的深度,直到恰好能对训练样例比较完美地分类。

实际应用中,当训练样本中有噪声或训练样例的数量太少以至于不能产生目标函数的有代表性的

采样时,该策略可能会遇到困难。在以上情况发生时,这个简单的算法产生的树会过度拟合训练样

例 (过度拟合: Over fitting)。过度拟合产生的原因:训练样本中有噪声,训练样例太小等。

C4.5的优缺点:

优点:产⽣的分类规则易于理解,准确率较⾼。

缺点:在构造树的过程中,需要对数据集进⾏多次的顺序扫描和排序,因⽽导致算法的低效。 此

外,C4.5只适合于能够驻留于内存的数据集,当训练集⼤得⽆法在内存容纳时程序⽆法运⾏。

5. CART算法

分类回归树(CART:Classification and Regression Tree)其特点是在计算过程中充分利用二分

支树的结构(Bianry Tree-structured),即根节点包含所有样本,在一定的分裂规则下根节点被分

裂为两个子节点,这个过程又在子节点上重复进行,直至不可再分,成为叶节点为止。使用GINI指

标来选择分裂属性,使用二元切分(将生成二叉树) ,基于代价-复杂度剪枝。

算法描述:其中T代表当前样本集,当前候选属性集用T_attributelist表示。

(1)创建根节点N (2)为N分配类别

(3)if T 都属于同一类别 or T 中只剩下 一个样本则返回 N 为叶节点,否则为其分配属性

(4)for each T_attributelist 中属性执行该属性上的一个划分,计算此划分的GINI系数

(5)N 的测试属性 test_attribute=T_attributelist 中最小 GINI 系数的属性

(6)划分T得到T1、T2子集

(7)对于T1重复(1)-(6)

(8)对于T2重复(1)-(6)

CART算法考虑到每个节点都有成为叶子节点的可能,对每个节点都分配类别。 分配类别的方法可

以用当前节点中出现最多的类别,也可以参考当前节点的分类错误或者其他更复杂的方法。

Gini指标最小,划分越纯。 选择具有最小Gini指标 (或最大∆Gini)的属性作为分裂属性。

处理离散值属性:以收入为例,对收入属性的所有可能子集: {低,中,高},{低,中},{低,

高},{中,高},{低},{中},{高} 。考虑所有可能的二元划分,并计算划分前后的 Gini 指标, 选择

能产生最小 Gini 指标的子集作为分裂子集。

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

6. 递归分割(greedy algorithm)

从根节点开始,考虑一个分裂变量 j 和分裂点 s,得到2个区域,最优的变量 j 和分裂点 s,要满足

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

对于给定的 j 和 s,最里层的优化问题的解为:

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

而对于给定的 j,分裂点 s 很快能找到。

这样,遍历所有的自变量,就能找到最佳的一对 j 和 s。

机器学习---决策树算法(CLS、ID3、CART),机器学习,机器学习,算法,决策树

 文章来源地址https://www.toymoban.com/news/detail-688140.html

 

 

 

 

到了这里,关于机器学习---决策树算法(CLS、ID3、CART)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 在西瓜数据集上用Python实现ID3决策树算法完整代码

    在西瓜数据集上用Python实现ID3决策树算法完整代码 1、决策树算法代码ID3.py 2、可视化决策树代码visual_decision_tree.py 3、贴几张运行结果图 1、生成的可视化决策树 2、代码运行结果 输出每次划分的每个属性特征的信息增益以及最后的决策树 3、记事本上手动跑程序的草图

    2024年02月08日
    浏览(47)
  • python机器学习(六)决策树(上) 构造树、信息熵的分类和度量、信息增益、CART算法、剪枝

    模拟相亲的过程,通过相亲决策图,男的去相亲,会先选择性别为女的,然后依次根据年龄、长相、收入、职业等信息对相亲的另一方有所了解。 通过决策图可以发现,生活中面临各种各样的选择,基于我们的经验和自身需求进行一些筛选,把判断背后的逻辑整理成结构图,

    2024年02月14日
    浏览(49)
  • 【数据挖掘】决策树归纳中ID3算法讲解及构建决策树实战(图文解释 超详细)

    需要完整PPT请点赞关注收藏后评论区留言私信~~~ 分类是一种重要的数据分析形式。数据分类也称为监督学习,包括学习阶段(构建分类模型)和分类阶段(使用模型预测给定数据的类标号)两个阶段。数据分类方法主要有决策树归纳、贝叶斯分类、K-近邻分类、支持向量机

    2023年04月09日
    浏览(45)
  • 机器学习之——CART决策树算法

    目录 一、CART决策树算法简介 二、基尼系数 三、决策树的生成 CART(Classification And Regression Trees 分类回归树)算法是一种树构建算法,既可以用于分类任务,又可以用于回归。相比于 ID3 和 C4.5 只能用于 离散型数据 且只能用于分类任务,CART 算法的适用面要广得多,既可用于

    2024年04月13日
    浏览(46)
  • 机器学习之决策树CART算法

    接上期: CART算法是给定输入随机变量X条件下输出随机变量Y的条件概率分布的学习方法。CART假设决策树是二叉树,内部节点取值为“是”或“否”。这样的决策树等价于递归地二分每个特征,将特征空间划分为有限个单元,并在这些单元上确定预测的概率分布即输入给定的

    2024年02月02日
    浏览(40)
  • ID3 决策树

    西瓜数据集D如下: 编号 色泽 根蒂 敲声 纹理 脐部 触感 好瓜 1 青绿 蜷缩 浊响 清晰 凹陷 硬滑 是 2 乌黑 蜷缩 沉闷 清晰 凹陷 硬滑 是 3 乌黑 蜷缩 浊响 清晰 凹陷 硬滑 是 4 青绿 蜷缩 沉闷 清晰 凹陷 硬滑 是 5 浅白 蜷缩 浊响 清晰 凹陷 硬滑 是 6 青绿 稍蜷 浊响 清晰 稍凹 软粘

    2024年02月13日
    浏览(58)
  • 决策树ID3

    学习地址: https://www.bilibili.com/video/BV1Cq4y1S7k1/?spm_id_from=333.1007.top_right_bar_window_history.content.clickvd_source=de1f9cbc33f7115533aa33c9d6b5257b ID3算法画出决策树 关系: gain=E-info 先算天气的信息增益 算气温的信息增益 算湿度的信息增益 算风的信息增益 选择信息增益最大的作为根节点 画出根

    2024年02月12日
    浏览(49)
  • 基于weka手工实现ID3决策树

    相比于logistic回归、BP网络、支持向量机等基于超平面的方法,决策树更像一种算法,里面的数学原理并不是很多,较好理解。 决策树就是一个不断地属性选择、属性划分地过程,直到满足某一情况就停止划分。 当前样本全部属于同一类别了(信息增益为0); 已经是空叶子

    2024年02月14日
    浏览(51)
  • 决策树之ID3的matlab实现

    森林内的两条分叉路,我选择了人迹罕见的一条,从此一切变得不一样。 ------佛洛斯特Robert Frost 目录 一 .决策树介绍 1.1 相关概念 1.2 图形表示 1.3 规则表示 二.决策树的信息计算 三.ID3相关介绍 3.1 ID3算法概述 3.2 算法流程 四.matlab实现

    2024年02月11日
    浏览(65)
  • ID3决策树及Python实现(详细)

    目录 一、划分特征的评价指标: 二、决策树学习算法伪代码: 三、决策树生成实例: 四、Python实现ID3决策树: 1、信息熵 Ent(D): 信息熵,是度量样本集合纯度的一种指标,Ent(D)的值越小,则样本集D的纯度越高; 2、信息增益 Gain(D,a): 信息增益越大,则意味着使用属性a来

    2024年02月09日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包