机器学习案例 | 通过EBG学习概念cup

这篇具有很好参考价值的文章主要介绍了机器学习案例 | 通过EBG学习概念cup。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

机器学习案例 | 通过EBG学习概念cup

基于解释的学习(explanation-basedlearning)可简称为解释学习,是20世纪80年代中期开始兴起的一种机器学习方法。解释学习根据任务所在领域知识和正在学习的概念知识,对当前实例进行分析和求解,得出一个表征求解过程的因果解释树,以获取新的知识。在获取新知识的过程中,通过对属性、表征现象和内在关系等进行解释而学习到新的知识。

01、解释学习过程和算法

解释学习一般包括下列3个步骤。

(1) 利用基于解释的方法对训练实例进行分析与解释,以说明它是目标概念的一个实例。

(2) 对实例的结构进行概括性解释,建立该训练实例的一个解释结构,以满足所学概 念的定义;解释结构的各个叶子结点应符合可操作性准则,且使这种解释比最初的例子适用于更大的一类例子。

(3) 从解释结构中识别出训练实例的特性,并从中得到更大一类例子的概括性描述,获取一般控制知识。

解释学习是把现有的不能用或不实用的知识转化为可用的形式,因此必须了解目标概念的初始描述。

1986年,Mitchell等人为基于解释的学习提出了基于解释的概括 (Explanation-BasedGeneralization,EBG)算法,该算法建立了基于解释的概括过程,并运用知识的逻辑表示和演绎推理进行问题求解。

EBG 过程如图1所示,其求解问题的形式可描述如下。

机器学习案例 | 通过EBG学习概念cup

图1 EBG过程

给定:

(1) 目标概念(要学习的概念)(GoalConcept,TC)描述。

(2) 训练实例(目标概念的一个实)(TrainingExample,TE)。

(3) 领域知识(由一组规则和事实组成的用于解释训练实例的知识库)(Domain Theory,DT)。

(4) 可操作性准则 (说明概念描述应具有的形式化谓词公式)(Operationality Criterion,OC)

求解:

训练实例的一般化概括,使之满足:

(1) 目标概念的充分概括描述 TC。

(2) 可操作性准则 OC。

其中,领域知识(DT)是相关领域的事实和规则,在学习系统中作为背景知识,用于证明训练实例(TE)为什么可以作为目标概念的一个实例,从而形成相应的解释。

TE 是为学习系统提供的一个例子,在学习过程中起着重要的作用,它应能充分地说明 TC。

操作准则 (OC)用于指导学习系统对目标概念进行取舍,使得通过学习产生的关于 TC的一般性描述成为可用的一般性知识。

从上述描述中可以看出,在解释学习中,为了对某一目标概念进行学习,从而得到相 应的知识,必须为学习系统提供完善的领域知识以及能够说明目标概念的一个训练实例。

在系统进行学习时,首先运用 DT 找出 TE为什么是 TC之实例的证明(即解释),然后根据 OC对证明进行推广。从而得到关于 TC的一般性描述。即可供以后使用的形式化表示的一般性知识。

可把 EBG 算法分为解释和概括两步。

(1) 解释,即根据领域知识建立一个解释,以证明训练实例如何满足目标概念定义。目标概念的初始描述通常是不可操作的。

(2) 概括,即对第(1)步的证明树进行处理,对目标概念进行回归,包括用变量代替常量以及必要的新项合成等工作,从而得到所期望的概念描述。

由上可知,解释工作是将实例的相关属性与无关属性分离开;概括工作则是分析解释结果。

02、案例:通过EBG学习概念cup

下面以学习概念cup(杯子)为例说明 EBG(基于解释的概括方法)的学习过程。

(1) 目标概念:cup。

(2) 高级描述:cup(x)。

(3) 领域知识:

stable(x)∧liftable(x)∧drinkfrom(x)→cup(x)

has(x,y)∧concavity(y)∧upward-pointing(y)→drinkfrom(x)

bottom(x,y)∧flat(y)→stable(x) light-weight(x)∧graspable(x)→liftable(x)

small(x)∧madefrom(x,plastic)→light-weight(x) has(x,y)∧handle(y)→graspable(x)

(部分中文解释:stable稳定的;liftable 便于拿起;drinkfrom 可用来喝饮料;concavity凹空;upward-pointing 向上指示;bottom 底;flat平坦的;light-weight轻质;graspable可握住;plastic塑胶。)

(4) 训练例子:

small(obj),madefrom(obj,plastic),has(obj,part1),handle(part1),has(obj,part2),concavity(part2),upward-pointing(part2),bottom(obj,b),flat(b)。

(5) 可操作性准则:目标概念必须以系统可识别的物理特征描述。

利用以上规则和事实,以cup(obj)为目标逆向推理,可以构造如图2(a)所示的解释结构,其叶子结点满足可操作性准则。

对解释进行概括,变常量为变量,便得到概括后的解释结构。

将此结构中的所有叶子结点作合取,就得到目标概念应满足的一般性的充分条件,以产生式规则形式表示为

IF small(V3)∧made-from(V3,plastic)∧

has(V3,V10)∧handle(V10)∧has(V3,V25) ∧

concavity(V25)∧upward-pointing(V25)∧

bottom(V3,V37)∧flat(V37)

THEN cup(V3)……(图2(b))

学到这条规则就是 EBG 的目的。

机器学习案例 | 通过EBG学习概念cup

(a)解释结构

机器学习案例 | 通过EBG学习概念cup

(b)形成规则

图2 EBG的学习过程

03、文末送书

机器学习案例 | 通过EBG学习概念cup

内容简介


至少从 20 世纪 50 年代起,人们就开始大肆宣传可能很快就会创造出一种能够与人类智能的全部范围和水平相匹配的机器。现在,我们已经成功地创造出了能够解决特定问题的机器,其准确度达到甚至超过了人类,但我们仍然无法获得通用智能。这本书想和大家探讨一下还需要做什么样的努力才能不仅获得专用智能,还能获得通用智能。

如果读者对智能感兴趣,想了解更多关于如何建造自主机器的知识,或者担心这些机器突然有一天会以一种被称为“技术奇点”的方式统治世界,请阅读本书。

通过阅读本书,读者将会了解到:

尽管人工智能已经变得越来越复杂而强大,但计算机科学还远未创造出通用人工智能。

人类自然智能的认知机理以及人工智能发展的初心与使命,从不同方面认知当前人工智能技术的不足。

从当前“专用人工智能”到实现真正的“通用人工智能”还需要在哪些方面取得突破。

机器智能的进步可能会改变人们从事的工作类型,但它们不会意味着人类存在的终结。

为什么机器智能的改进并不会导致由机器所主导的失控性革命,机器智能的进步并不会导致世界末日的到来。

作者简介


赫伯特·L.罗埃布莱特

(Herbert L. Roitblat)

加州大学伯克利分校心理学博士,曾在夏威夷大学任教多年,现为Mimecast公司首席数据科学家。他在信息技术创新的各个方面具有广泛的经验,是技术企业家、发明家和专家,同时也是认知科学、信息检索、深度学习、电子发现、机器学习、神经网络、信息治理、自然语言处理等领域的专家。

译者简介


郭斌

工学博士,西北工业大学计算机学院教授/博导,国家杰出青年科学基金获得者,国家“万人计划”青年拔尖人才,智能感知与计算工信部重点实验室副主任,西北工业大学计算与艺术交叉研究中心主任,陕西省高校青年创新团队负责人。2009年在日本庆应大学获博士学位,2009-2011年在法国国立电信学院进行博士后研究。主要从事智能物联网、普适与泛在计算、人机物融合群智计算等方面的研究。在IEEE/ACM汇刊等国内外重要期刊和会议上发表论文150余篇,且面向智慧城市、智能制造、公共安全等国家重大需求开展领域应用和技术推广。曾获得教育部自然科学一等奖、陕西省自然科学一等奖以及IEEE UIC'17等国际会议“最佳论文奖”。担任IEEE Transactions on Human-Machine Systems、IEEE Communications Magazine、ACM IMWUT等国际权威期刊编委。CCF西安分部主席,CCF杰出会员,IEEE高级会员,爱思唯尔中国高被引学者。

参与方式:文章三连并且评论“人生苦短,拒绝内卷”,24小时后程序自动抽取4位小伙伴送出技术图书《通用人工智能:初心与未来》!文章来源地址https://www.toymoban.com/news/detail-436508.html

到了这里,关于机器学习案例 | 通过EBG学习概念cup的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Pytorch深度强化学习案例:基于Q-Learning的机器人走迷宫

    本专栏重点介绍强化学习技术的数学原理,并且 采用Pytorch框架对常见的强化学习算法、案例进行实现 ,帮助读者理解并快速上手开发。同时,辅以各种机器学习、数据处理技术,扩充人工智能的底层知识。 🚀详情:

    2024年02月04日
    浏览(61)
  • 【可解释性机器学习】详解Python的可解释机器学习库:SHAP

    可解释机器学习 在这几年慢慢成为了机器学习的重要研究方向。作为数据科学家需要防止模型存在偏见,且帮助决策者理解如何正确地使用我们的模型。越是严苛的场景,越 需要模型提供证明它们是如何运作且避免错误的证据 。 关于模型解释性,除了线性模型和决策树这种

    2023年04月09日
    浏览(45)
  • 机器学习:可解释学习

    神马汉斯,只有在有人看的时候能够答对。 贷款,医疗需要给出理由,让人们相信该算法的预测结果。 决策树是有比较好的解释性的。 随机森林作出的判断也无法明确指出是什么原因得到的答案。 人需要一个理由,才会被说服去做什么事。 两大类,局部可解释,全局可解

    2024年02月10日
    浏览(39)
  • 可解释机器学习笔记(一)——可解释性

    可解释性没有数学上的定义。 1、可解释性是指人们能够理解决策原因的程度。 2、可解释性是指人们能够一致地预测模型结果的程度。 如果要确保机器学习模型能够解释决策,除了从定义出发,还可以更容易地检查以下性质: 1、公平性(Fairness)。确保预测是公正的,不会隐

    2024年02月16日
    浏览(53)
  • 【概念记录】什么是 行最简形 矩阵?| 人工智能 面试题:解释一下集成学习(Ensemble Learning)的概念和优势。| 集成学习 概念,优势,方法

      “生活不是电影,生活比电影苦。”     🎯作者主页: 追光者♂🔥          🌸个人简介:   💖[1] 计算机专业硕士研究生💖   🌿[2] 2023年城市之星领跑者TOP1(哈尔滨)🌿   🌟[3] 2022年度博客之星人工智能领域TOP4🌟   🏅[4] 阿里云社区特邀专家博主🏅   🏆[5] CSD

    2024年02月06日
    浏览(59)
  • 【FPGA教程案例95】机器学习2——基于FPGA的SVM支持向量机二分类系统实现之Verilog编程设计

    FPGA教程目录 ​​​​​​MATLAB教程目录 本课程成果预览(o_check=0表示分类1,o_check=1表示分类2,识别率为98.7%) 目录 1.软件版本

    2023年04月08日
    浏览(60)
  • 机器学习中模型解释性问题笔记

            模型解释性是指能够理解和解释机器学习模型如何做出预测或决策的能力。以下是一些机器学习中模型解释性问题的例子: 医疗诊断:在医疗诊断领域,模型解释性非常重要。例如,当使用深度学习模型进行肿瘤诊断时,医生需要知道模型是基于哪些特征或区域

    2024年02月13日
    浏览(63)
  • 机器学习可解释性一(LIME)

    随着深度学习的发展,越来越多的模型诞生,并且在训练集和测试集上的表现甚至于高于人类,但是深度学习一直被认为是一个黑盒模型,我们通俗的认为,经过训练后,机器学习到了数据中的特征,进而可以正确的预测结果,但是,对于机器到底学到了什么,仍然是个黑盒

    2024年01月19日
    浏览(42)
  • 机器学习模型SHAP解释——R语言

    SHAP(SHapley Additive exPlanations)作为一种解释机器学习模型输出的方法,基于Shapley值理论,通过将模型预测结果分解为每个特征的贡献,为模型提供全局和局部的可解释性。 SHAP作为机器学习模型的解释工具,已经是一项重大突破。 在处理医学问题时,我们往往通过构建模型,来

    2024年04月27日
    浏览(34)
  • MATLAB算法实战应用案例精讲-【人工智能】机器视觉(概念篇)(最终篇)

    目录 前言 几个高频面试题目 如何评价一个光源的好坏?

    2024年02月02日
    浏览(71)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包