决策树 (人工智能期末复习)

这篇具有很好参考价值的文章主要介绍了决策树 (人工智能期末复习)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

参考书:机器学习(周志华)

几个重要概念

信息熵

随机事件未按照某个属性的不同取值划分时的熵减去按照某个属性的不同取值划分时的平均熵。
表示事物的混乱程度,熵越大表示混乱程度越大,越小表示混乱程度越小
对于随机事件,如果当前样本集合D中第k类样本所占的比例为 p k {p_k} pk,那么D的信息熵为:

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
我们需要选择熵最小的。

信息增益——ID3

考虑到不同的分支结点所包含的样本数不同,我们给分支结点赋予权重| D v {D^v} Dv| / | D D D|,可计算出用属性a对样本集D进行划分所获得的信息增益:
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
一般来说,信息增益越大,使用属性a 来进行划分所获得的“纯度提升”越大,因此我们需要选择信息增益最大

信息增益率——C4.5

信息增益准则对可取值数目较多的属性有所偏好,为减少这种偏好可能带来的不利影响,我们考虑属性a的取值数目
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
其中
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
增益率准则对可取值数目较少的属性有所偏好,在选择时,先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高

基尼系数——CART

数据集D的纯度可用基尼值来度量,它反映了从数据集D中随机抽取两个样本,其类别标记不一致的概率,因此,Gini(D)越小,数据集D的纯度越高

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
属性a的基尼指数定义为:
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
我们在候选属性集合A中,选择那个使得划分后基尼指数最小的属性作为最优划分属性。

例题

其实主要还是背公式+计算不出错,步骤基本上都差不多

(20年期末)设训练集如下表所示,请用经典的 ID3 算法 完成其学习过程。

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5


题目还给出了:
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5

使用ID3算法就只需要计算信息增益就好了,计算步骤如下:

STEP1 第一步需要计算出集合D的总信息熵
在决策树学习开始时,根结点包含D中的所有样例,其中正例占 p 1 p_1 p1 = 3 6 3 \over 6 63 = 1 2 1 \over 2 21,反例占 p 2 p_2 p2= 1 2 1 \over 2 21,于是根结点的信息熵为:

Ent(D) = -( 1 2 1 \over 2 21 log2 1 2 1 \over 2 21 + 1 2 1 \over 2 21 log2 1 2 1 \over 2 21) = 1

STEP2 接下来计算每个属性的信息熵

属性 x 1 {x_1} x1:包含 D 1 {D^1} D1(T)和 D 2 {D^2} D2(F),各占 1 2 1 \over 2 21

D 1 {D^1} D1(T):正例占 p 1 p_1 p1 = 2 3 2 \over 3 32,反例占 p 2 p_2 p2= 1 3 1 \over 3 31

Ent( D 1 {D^1} D1) = -( 2 3 2 \over 3 32 log2 2 3 2 \over 3 32 + 1 3 1 \over 3 31 log2 1 3 1 \over 3 31) = 0.9183

D 2 {D^2} D2(F):正例占 p 1 p_1 p1 = 1 3 1 \over 3 31,反例占 p 2 p_2 p2= 2 3 2 \over 3 32

Ent( D 2 {D^2} D2) = -( 1 3 1 \over 3 31 log2 1 3 1 \over 3 31 + 2 3 2 \over 3 32 log2 2 3 2 \over 3 32) = 0.9183

因此Ent( x 1 {x_1} x1) = 1 2 1 \over 2 21Ent( D 1 {D^1} D1) + 1 2 1 \over 2 21Ent( D 2 {D^2} D2) = 0.9183

属性 x 2 {x_2} x2:包含 D 1 {D^1} D1(T)和 D 2 {D^2} D2(F),分别占 2 3 2 \over 3 32 1 3 1 \over 3 31

D 1 {D^1} D1(T):正例占 p 1 p_1 p1 = 1 2 1 \over 2 21,反例占 p 2 p_2 p2= 1 2 1 \over 2 21

Ent( D 1 {D^1} D1) = -( 1 2 1 \over 2 21 log2 1 2 1 \over 2 21 + 1 2 1 \over 2 21 log2 1 2 1 \over 2 21) = 1

D 2 {D^2} D2(F):正例占 p 1 p_1 p1 = 1 2 1 \over 2 21,反例占 p 2 p_2 p2= 1 2 1 \over 2 21

Ent( D 2 {D^2} D2) = -( 1 2 1 \over 2 21 log2 1 2 1 \over 2 21 + 1 2 1 \over 2 21 log2 1 2 1 \over 2 21) = 1

因此Ent( x 2 {x_2} x2) = 2 3 2 \over 3 32Ent( D 1 {D^1} D1) + 1 3 1 \over 3 31Ent( D 2 {D^2} D2) = 1

STEP3 最后计算每个属性的信息增益
Gain(D, x 1 {x_1} x1)=Ent(D) - Ent( x 1 {x_1} x1) = 1 - 0.9183 = 0.0817
Gain(D, x 2 {x_2} x2)=Ent(D) - Ent( x 2 {x_2} x2) = 1-1 = 1
选择信息增益大的作为第一个属性,即选择属性 x 1 {x_1} x1对根节点进行扩展
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
扩展 x 1 {x_1} x1之后还未得到最终方案结果,只剩 x 2 {x_2} x2属性可拓展,因此不需要再进行条件熵的计算,对 x 2 {x_2} x2扩展后所得到的决策树如下图所示:
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5

(19年)下表给出外国菜是否有吸引力的数据集,每个菜品有 3 个属性“温度”、“口味”,“份量”,请用决策树算法画出决策树(根据信息增益)。并预测 dish= {温度=热,口味=甜,份量=大} 的一道菜,是否具有吸引力。

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5


这题也是根据信息增益选择属性,和上一题步骤一样
STEP1 第一步计算出集合D的总信息熵
根结点包含10个样例,其中正例占 p 1 p_1 p1 = 1 2 1 \over 2 21 ,反例占 p 2 p_2 p2= 1 2 1 \over 2 21,于是根结点的信息熵为:

Ent(D) = -( 1 2 1 \over 2 21 log2 1 2 1 \over 2 21 + 1 2 1 \over 2 21 log2 1 2 1 \over 2 21) = 1

STEP2 接下来计算每个属性的条件熵

温度属性:包含 D 1 {D^1} D1(冷)和 D 2 {D^2} D2(热),各占 1 2 1 \over 2 21

D 1 {D^1} D1(冷):正例占 p 1 p_1 p1 = 3 5 3 \over 5 53,反例占 p 2 p_2 p2= 2 5 2 \over 5 52

Ent( D 1 {D^1} D1) = -( 3 5 3 \over 5 53 log2 3 5 3 \over 5 53 + 2 5 2 \over 5 52 log2 2 5 2 \over 5 52) = 0.971

D 2 {D^2} D2(热):正例占 p 1 p_1 p1 = 2 5 2 \over 5 52,反例占 p 2 p_2 p2= 3 5 3 \over 5 53

Ent( D 2 {D^2} D2) = -( 2 5 2 \over 5 52 log2 2 5 2 \over 5 52 + 3 5 3 \over 5 53 log2 3 5 3 \over 5 53) = 0.971

因此Ent(温度) = 1 2 1 \over 2 21Ent( D 1 {D^1} D1) + 1 2 1 \over 2 21Ent( D 2 {D^2} D2) = 0.971

份量属性:包含 D 1 {D^1} D1(大)和 D 2 {D^2} D2(小),各占 1 2 1 \over 2 21

D 1 {D^1} D1(冷):正例占 p 1 p_1 p1 = 1 5 1 \over 5 51,反例占 p 2 p_2 p2= 4 5 4 \over 5 54

Ent( D 1 {D^1} D1) = -( 1 5 1 \over 5 51 log2 1 5 1\over 5 51 + 4 5 4 \over 5 54 log2 4 5 4 \over 5 54) = 0.722

D 2 {D^2} D2(热):正例占 p 1 p_1 p1 = 4 5 4 \over 5 54,反例占 p 2 p_2 p2= 1 5 1 \over 5 51

Ent( D 2 {D^2} D2) = -( 4 5 4 \over 5 54 log2 4 5 4 \over 5 54 + 1 5 1 \over 5 51 log2 1 5 1 \over 5 51) = 0.722

因此Ent(份量) = 1 2 1 \over 2 21Ent( D 1 {D^1} D1) + 1 2 1 \over 2 21Ent( D 2 {D^2} D2) = 0.722

口味属性:包含 D 1 {D^1} D1(咸)和 D 2 {D^2} D2(甜)和 D 3 {D^3} D3(酸),分别占 3 10 3 \over 10 103 4 10 4 \over 10 104 3 10 3 \over 10 103

D 1 {D^1} D1(咸):正例占 p 1 p_1 p1 = 0,反例占 p 2 p_2 p2= 1

Ent( D 1 {D^1} D1) = 0

D 2 {D^2} D2(甜):正例占 p 1 p_1 p1 = 1 2 1 \over 2 21,反例占 p 2 p_2 p2= 1 2 1 \over 2 21

Ent( D 2 {D^2} D2) = -( 1 2 1 \over 2 21 log2 1 2 1 \over 2 21 + 1 2 1 \over 2 21 log2 1 2 1 \over 2 21) = 1

D 3 {D^3} D3(酸):正例占 p 1 p_1 p1 = 1,反例占 p 2 p_2 p2= 0

Ent( D 3 {D^3} D3) = 0

因此Ent(口味) = 3 10 3 \over 10 103Ent( D 1 {D^1} D1) + 4 10 4 \over 10 104Ent( D 2 {D^2} D2) + 3 10 3 \over 10 103Ent( D 3 {D^3} D3)= 0.4

STEP3 最后计算每个属性的信息增益
Gain(D,温度)=Ent(D) - Ent(温度 = 1 - 0.971= 0.029
Gain(D,份量)=Ent(D) - Ent(份量) = 1 - 0.722 = 0.278
Gain(D,口味)=Ent(D) - Ent(口味) = 1 - 0.4= 0.6

选择信息增益大的作为第一个属性,即选择口味属性对根节点进行扩展,第二层选择份量属性,最后选择温度属性,画出的决策树如下
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
也可以只在口味=甜的时候选择下一个属性是“份量”还是“温度”,因为口味=酸的时候已经可以得出结果为“是”,口味为咸的时候已经可以得出结果为“否”。
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5

预测 dish= {温度=热,口味=甜,份量=大},根据决策树可以预测结果为“否”。


剩下的题我就不具体写了,大家可以自己练练手。

(18年期末)下表为是否适合打垒球的决策表,请用决策树算法画出决策树,并请预测 E= {天气=晴,温度=适中,湿度=正常,风速=弱} 的场合,是否合适打垒球。

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
画出的决策树如下
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5


(17年期末)设使用ID3算法进行归纳学习的输入实例集S={ i | 1≤ i ≤ 7 }如下表所示。学习的目标是用属性A、B、C预测属性F。
(1)写出集合S分别以属性A、B、C作为测试属性的熵的增益Gain(S, A)、Gain(S, B)、Gain(S, C)的表达式。
(2)属性A、B、C中哪个应该作为决策树根节点的测试属性?

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
(1)
Gain(S, A)=0.067、Gain(S, B)=0.128、Gain(S, C)=0.522
(2)C作为根节点,AB位置可互换
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5


(22年秋期末)你的飞船刚刚降落在一个外星星球上,你的船员已经开始调查当地的野生动物。不幸的是,你的大多数科学设备都坏了,所以你只能知道一个物体是什么颜色,它有多少只眼睛,它是否活着。更糟糕的是,你们都不是生物学家,所以你们必须使用决策树来将着陆点附近的物体分类为活着或不活着。使用下表回答以下问题:
人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5
(1)下列哪个熵值最大?
H(Alive|eyes>10), H(Alive|eyes<10), H(Alive|color=green), H(Alive|color=black)
(2)计算信息增益值 IG(Alive|color);
(3)假设我们想将“眼睛数”转换为一个二进制属性,以构建决策树。以下哪种二元分类划分导致 IG(活眼数)值更大?
(a) {Number of eyes = 11, Number of eyes != 11},
(b) {Number of eyes <= 4, Number of eyes > 4},
(c) {Number of eyes <= 13, Number of eyes > 13}
(4)按照信息熵理论根据上一问的二元划分构造一个决策树并对下面的例子进行分类
(a) A red object with 23 eyes,
(b) A black object with 1.5 eyes

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5


考虑下面一个数据集,它记录了某学生多次考试的情况,请根据提供的数据按要求构建决策树。
(1)根据信息增益率选择第一个属性,构建一个深度为1的决策树(根结点深度为1)。
(2)根据信息增益率构建完整的决策树。请回答,这两个决策树的决策结果是否和训练数据一致,并解释说明。

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5


设样本集合如下表格,其中A、B、C是F的属性,请根据信息增益标准(ID3算法),画出F的决策树。

人工智能决策树的考试题,人工智能,人工智能,决策树,信息熵,信息增益,信息增益率,ID3,C4.5文章来源地址https://www.toymoban.com/news/detail-787743.html

到了这里,关于决策树 (人工智能期末复习)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能及其应用(蔡自兴)期末复习

    本文是基于郑州大学人工智能课程制作的复习笔记,教学内容基本很陈旧,应该很久都不会更新。 ⭐️ 都是我们的复习重点,需要进行关注 人工智能太恶心了,内容太多了! 注:我只是按照我们的课件来进行复习,不要盲目相信我的主观观点!!! 每年教的老师是不一样

    2024年02月07日
    浏览(72)
  • 人工智能期末复习——速通知识点

    知识点是通过老师上课ppt整理,对于期末复习的基本考点都有涉及,以及计算题部分都有例题进行讲解,希望能帮助大家更好的复习。 智能的主要流派: 思维理论:智能的核心是思维 知识阈值理论:智能取决于知识的数量及一般化程度 进化理论:用控制取代知识的表示 智

    2024年02月03日
    浏览(50)
  • 人工智能教材习题及答案(期末考试复习)

    习题1 一、填空 1.人工智能研究的三大学派:符号主义学派、 连接主义学派、行为主义学派 。 2.机器思维就是让计算机能够对感知到的 外界信息 和 自已产生的内部信息 进行 思维性 加工。 3.符号主义认为:人工智能起源于 数理逻辑 ,人类认知(智能)的基本元素是符号(sym

    2024年04月16日
    浏览(85)
  • 人工智能期末复习(背题家的落幕!)

    小时候最喜欢的一集😿 内容比较多,有点小难捏 题目很多,基本上齐全了,列了三个梯队,重点看⭐⭐⭐,其余两队有印象即可 😆 1、一般的多层感知器不包含哪种类型层次的神经元 ( 卷积层 ) 2、以下关于Sigmoid的特点说法错误的是 ( Sigmoid函数计算量小 ) 3、下列不属于数

    2024年02月11日
    浏览(48)
  • C++程序设计期末考试复习试题及解析 3(自用~)

    可以很清楚看到浅拷贝所造成的错误:在析构的时候会重复析构,这是由于浅拷贝时,b的buffer指针和a的buffer指针指向的是同一片空间 如何更改? 换为深拷贝! 即弃用默认拷贝构造函数,自己写一个拷贝构造函数 改为深拷贝后,a、b对象不会相互影响,由于b未调用set()函

    2024年02月09日
    浏览(43)
  • 人工智能期末考试

    1.  人工智能的定义          定义 :使机器的软件或程序,通过某些算法进行数据学习,并使用所学进行仿人决策。 2.  人工智能的各种认知观 符号主义 ( symbolism ) 原理:基于物理符号系统假设和有限合理性原理,起源于 数理逻辑 ; 连接主义 ( connectionism ) 原理:基于神

    2024年02月03日
    浏览(45)
  • 自动化决策支持:人工智能帮助制造业做出最佳决策

    作者:禅与计算机程序设计艺术 近年来,人工智能领域的高新技术、大数据技术和机器学习技术越来越成熟,而这些技术也正在改变着制造业的各个环节。自动化决策支持技术就是利用人工智能技术解决制造业中最棘手的问题——如何做出正确的决策,从而提升生产效率、降

    2024年02月06日
    浏览(72)
  • 【人工智能】机器学习中的决策树

    目录 特征选择 特征选择 树的生成 树的剪枝 特征如何选择 计算信息增益 样本集的基尼值 决策树生成 三种算法对比 决策树剪枝 预剪枝(pre-pruning) 后剪枝(post-pruning) 案例—红酒分类 案例—带噪正弦曲线拟合 本次实验是由python语言为基础学习网站分享给大家 点击右边链接进行

    2024年02月04日
    浏览(67)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包