【机器学习300问】16、逻辑回归模型实现分类的原理?

这篇具有很好参考价值的文章主要介绍了【机器学习300问】16、逻辑回归模型实现分类的原理?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

        在上一篇文章中,我初步介绍了什么是逻辑回归模型,从它能解决什么问题开始介绍,并讲到了它长什么样子的。如果有需要的小伙伴可以回顾一下,链接我放在下面啦:                             
【机器学习300问】15、什么是逻辑回归模型?

        在这篇文章中,我们深入了解一下逻辑回归模型是怎么实现分类的?我想我可以分成三个层次,层层递进的为大家介绍。

一、找到决策边界便能轻松分类

        我想试着从直观的图表入手,反过来推我们需要做些什么才能实现如图的效果。

(1)什么是决策边界?

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

        大家看到这图的一瞬间,就能想到画一条从左上到右下的线便可以将圈圈数据和叉叉数据分开,这一条线就决策边界。

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

        用更加通用的语句定义一下,在逻辑回归模型中,我们通常通过设置一个阈值,比如0.5,来决定预测的分类。当预测的概率大于等于这个阈值时,我们将其分类为正类,反之则分类为负类。这个阈值就形成了一个决策边界。

(2)这个决策边界和逻辑回归模型什么关系?

        首先复习一下逻辑回归模型长什么样子的,它是一个函数由两个部分组成,样子如下:

        【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

        长相有点吓人!我来解释一下:

式子 解释
这是逻辑回归模型的预测值,也可以理解为
【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类 这是sigmoid函数,只不过在上一篇文章中写作,这个【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类
P表示给定特征 x 的条件下,样本属于正类y=1的概率

        可以看到,逻辑回归模型本质是一个多项式套在sigmoid函数里面,那么我们就可以从sigmoid函数图像中看出些许端倪。

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

        我们以sigmoid函数y=0.5为一个阈值,这里的y只是一个符号,为了与上文统一也可以写成=0.5或者g=0.5都是一个意思,当y>0.5的时候我们认为预测结果是正类,当y<0.5的时候我们认为预测结果是负类。

        当y=0.5的时候z=0,又因为【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类,所以决策边界就出来了!即:

        【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

         我们还是拿这个图举例说明,在图中z=0的方程可以写作 【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类,这里只有两个特征量所以就直接写而不是向量形式书写了。

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

        从图中可以看出,能让z=0的线有很多条,我随便画了一条,这条线的 你能感觉到w和b的不同对应了不同z决策边界,而能让训练集分成合适的两个部分的决策边界不止一条。在这里我是凭借经验或者说直觉找的一对w和b确定了一个决策边界。

(3)当样本无法用直线来区分时

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

        决策边界的形状取决于特征和参数的选择。如果引入的特征是一组线性的,那么得到的决策边界是线性的;如果引入的特征是非线性的,那么得到的决策边界是非线性的。

        比如这个图中,就可以用 【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类来做决策边界,令z=0就可以得到【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类画出图像来的话就是一个圆,如下图

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

二、如何找到决策边界?

        决策边界的作用是尽可能完美的把正类和负类分开,那么我们就可以用分的准不准作为评判标准。回到逻辑回归模型所解决的问题——二分类问题,真实值y只有可能是0或者1。那么说明我的预测值也只可能是0或者1。

(1)逻辑回归模型的损失函数

        在线性回归模型中,介绍了一种叫做MSE均方误差的代价函数,来评价预测值与真实值之间的差距,进而判断模型是否尽可能的拟合数据。

        在逻辑回归模型中,也存在一种Loss损失函数,来判断预测值与真实值之间的差距。它长这样:

        这里暂不讨论它为什么是长这样,只是简单说一下,长这样有一个好处,那就是这是一个凸函数,没有局部最小值,可以很方便的使用梯度下降算法来求得最佳的w和b参数,进而确定决策边界,当决策边界定了就意味着逻辑回归模型也训练完成了。

        另外补充说,上面这种形式的损失函数叫做交叉熵误差,它有如下的特点:

  1. 当模型预测的概率分布与真实分布完全一致时,交叉熵损失取得最小值0,当预测结果完全错误时,交叉熵误差趋近于无穷大。取值范围[0, 1]
  2. 它惩罚了模型预测概率远离真实概率的程度,鼓励模型学习更加准确的概率分布。
  3. 便于通过梯度下降等优化算法更新模型参数。

(2)从图像中简单理解损失函数

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类

        写的太复杂了我还是写成。这样构建的函数的特点是:当实际的且预测值也为 1 时误差为 0,当但不为1时误差随着变小而变大;当实际的且也为 0 时误差为 0,当但不为 0时误差随着的变大而变大。

三、逻辑回归模型中的梯度下降算法

(1)梯度下降算法的目的

        梯度下降算法在逻辑回归中的目的是为了找到决策边界,找决策边界其实就是来确定w和b的值,故梯度下降算法就是为了寻找最佳的w和b。

        在逻辑回归模型中的梯度下降算法的目标函数是损失函数J,那么梯度下降算法具体目标就变成了找到损失函数J的最小值,在上面我们介绍的是针对某一个点的损失,现在我们计算所有点的损失,也就是整体损失后得到损失函数的终极形态:

       先将损失函数写成一行   

       在计算整体损失   

(2)梯度下降算法的步骤

       重复如下步骤即可

【机器学习300问】16、逻辑回归模型实现分类的原理?,【机器学习】,机器学习,逻辑回归,分类文章来源地址https://www.toymoban.com/news/detail-823400.html

到了这里,关于【机器学习300问】16、逻辑回归模型实现分类的原理?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python机器学习——分类模型评估 & 分类算法(k近邻,朴素贝叶斯,决策树,随机森林,逻辑回归,svm)

    交叉验证:为了让被评估的模型更加准确可信 交叉验证:将拿到的数据,分为训练和验证集。以下图为例:将数据分成5份,其中一份作为验证集。然后经过5次(组)的测试,每次都更换不同的验证集。即得到5组模型的结果,取平均值作为最终结果。又称5折交叉验证。 通常情

    2024年02月03日
    浏览(52)
  • 【吴恩达·机器学习】第三章:分类任务:逻辑回归模型(交叉熵损失函数、决策边界、过拟合、正则化)

    博主简介: 努力学习的22级计算机科学与技术本科生一枚🌸 博主主页: @Yaoyao2024 每日一言🌼: 勇敢的人,不是不落泪的人,而是愿意含着泪继续奔跑的人。 ——《朗读者》 本系列博客文章是博主本人根据吴恩达老师2022年的机器学习课程所学而写,主要包括老师的核心讲义

    2024年02月19日
    浏览(40)
  • 【Python机器学习】决策树、逻辑回归、神经网络等模型对电信用户流失分类实战(附源码和数据集)

    需要源码和数据集请点赞关注收藏后评论区留言私信~~~ 该实例数据来自kaggle,它的每一条数据为一个用户的信息,共有21个有效字段,其中最后一个字段Churn标志该用户是否流失   可用pandas的read_csv()函数来读取数据,用DataFrame的head()、shape、info()、duplicated()、nunique()等来初步

    2024年02月03日
    浏览(30)
  • 机器学习(六):回归分析——鸢尾花多变量回归、逻辑回归三分类只用numpy,sigmoid、实现RANSAC 线性拟合

    [ 实验1 回归分析] 一、 预备知识 使用梯度下降法求解多变量回归问题 数据集 Iris 鸢尾花数据集是一个经典数据集,在统计学习和机器学习领域都经常被用作示例。数据集内包含 3 类共 150 条记录,每类各 50 个数据,每条记录都有 4 项特征:花萼长度、花萼宽度、花瓣长度、

    2023年04月13日
    浏览(73)
  • 机器学习:基于梯度下降算法的逻辑回归实现和原理解析

    当涉及到二元分类问题时,逻辑回归是一种常用的机器学习算法。它不仅简单而且有效,通常是入门机器学习领域的第一步。本文将介绍逻辑回归的基本概念、原理、应用场景和代码示例。 逻辑回归是一种用于解决二元分类问题的统计学习方法。尽管其名称中包含\\\"回归\\\"一词

    2024年02月09日
    浏览(40)
  • 【机器学习】逻辑回归(二元分类)

    离散感知器:输出的预测值仅为 0 或 1 连续感知器(逻辑分类器):输出的预测值可以是 0 到 1 的任何数字,标签为 0 的点输出接近于 0 的数,标签为 1 的点输出接近于 1 的数 逻辑回归算法(logistics regression algorithm):用于训练逻辑分类器的算法 sigmoid 函数: g ( z ) = 1 1 +

    2024年02月21日
    浏览(38)
  • 【机器学习】鸢尾花分类-逻辑回归示例

    功能: 这段代码演示了如何使用逻辑回归对鸢尾花数据集进行训练,并将训练好的模型保存到文件中。然后,它允许用户输入新的鸢尾花特征数据,使用保存的模型进行预测,并输出预测结果。 步骤概述: 加载数据和预处理: 使用 Scikit-Learn 中的 datasets 模块加载鸢尾花数据

    2024年02月10日
    浏览(31)
  • 机器学习算法(一): 基于逻辑回归的分类预测

    逻辑回归的介绍 逻辑回归(Logistic regression,简称LR)虽然其中带有\\\"回归\\\"两个字,但逻辑回归其实是一个 分类 模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。 而对于

    2024年01月15日
    浏览(39)
  • 【机器学习300问】11、多元线性回归模型和一元线性回归有什么不同?

            在之前的文章中,我们已经学习了一元线性回归模型,其中最关键的参数是w和b。机器学习的目的就是去得到合适w和b后能准确预测未知数据。但现实世界是复杂的,一个事情的发生绝大多数时候不会是一个原因导致。         因此多元线性回归模型区别与一元线

    2024年01月22日
    浏览(35)
  • 【Python机器学习】实验04 多分类实践(基于逻辑回归)

    Iris数据集是常用的分类实验数据集,由Fisher, 1936收集整理。Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据样本,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Se

    2024年02月11日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包