机器学习之逻辑回归

这篇具有很好参考价值的文章主要介绍了机器学习之逻辑回归。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 机器学习分类

机器学习之逻辑回归

1.1 监督学习

1.1.1 回归(线性回归)
1.1.1.1 描述
线性回归分析(Linear Regression Analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法
线性回归要做的是就是找到一个数学公式能相对较完美地把所有自变量组合(加减乘除)起来,得到的结果和目标接近

机器学习之逻辑回归
线性回归模型公式: 机器学习之逻辑回归

多元线性关系:一个通过特征的的线性组合来进行预测的函数

机器学习之逻辑回归

其中,h(x)是因变量,x1、x2、…、xn是自变量,o1、o2、…、bn是回归系数。回归系数表示自变量对因变量的影响程度,可以通过最小二乘法来求解。

1.1.1.2 损失:评估预测结果与真实值的偏差程度

看到一元线性关系,假设红圈所示为预测样本的真实值,箭头所示指向的直线上的一点为预测值,此时真实值与预测值存在偏差,称为损失。
机器学习之逻辑回归
总损失计算公式:
机器学习之逻辑回归
计算完总损失后,可进一步求出总损失的平均值。求平均值的意义在与:当样本数不同的两个训练集进行对比时,总损失无法准确评估(样本数有差异),此时需要对总损失求平均值,该方法又称为最小二乘法。
机器学习之逻辑回归

1.1.2 分类
当输出变量是分类变量时,则使用分类。

2. 逻辑回归详解

2.1 逻辑回归介绍

逻辑回归也称作logistic回归分析, 是一种广义的线性回归分析模型,属于机器学习中的监督学习。其推导的过程与计算方式类似回归的过程。但是实际上主要用于解决二分类问题(也可以解决多分类问题)。通过给定n组数据(训练集)来训练模型,并在训练结束后对给定的一组或者多组数据(测试集)进行分类。

2.1 逻辑回归优缺点

  • 优点
实现简单,易于理解和实现;计算代价不高,速度很快,存储资源低
  • 缺点
容易欠拟合,分类精度可能不高

2.2 逻辑回归处理的数据

逻辑回归是用来进行分类的。例如,我们给出一个人的身高体重, 然后判断这个人是属于还是。对于这类问题,身高体重就是两个特征,就是分类。我们可以先测量n个人的身高和体重以及对应的分类胖和瘦。把胖和瘦分别用0和1来表示,把这n组数据输入模型进行训练。训练后再把待分类的人的身高和体重输入模型中,看这个人是属于还是

从本质上来说,逻辑回归训练后的模型是平面的一条直线(p=2)或者是平面(p=3),超平面(p>3)。并且这条线或平面把空间中的散点分成两半,属于同一类的数据大多数分布在曲线或者平面的同一侧。如下图
机器学习之逻辑回归

2.3 算法原理

首先,我们处理二分类问题。由于分成两类,我们便让其中一类标签为0,另一类为1。我们需要一个函数,对于输入的每一组数据,都能映射成0~1之间的数。并且如果函数值大于0.5,就判定属于1,否则属于0。而且函数中需要待定参数,通过利用样本训练,使得这个参数能够对训练集中的数据有很准确的预测。

逻辑回归: 线性回归 + sigmoid函数
线性回归: z = w * x + b
sigmoid函数:

  • Logistic(逻辑回归)表达式

其中,x是数据的特征向量(x 0 , x 1 ,…xn ), w是参数向量(需要数据拟合), b是偏置。

  • Logistic函数图像
    机器学习之逻辑回归
    上述计算得到了在给定数据点后,通过Logistic函数计算得到的预测值,显然一开始预测值与真实值是有偏差的,通过损失函数计算偏差,优化算法缩小偏差,最终得到模型适合的参数。
  • 逻辑回归损失函数
    损失函数是体现预测值实际值相似程度的函数
    损失函数越小,模型越好

3. sklearn逻辑回归(LogisticRegression)详解

3.1 LogisticRegression模型

3.1.1 重要参数
  • penalty:指定正则化的参数可选为"l1", “l2” 默认为“l2”. 注意:l1正则化会将部分参数压缩到0,而l2正则化不会让参数取到0只会无线接近
  • C:大于0的浮点数。C越小对损失函数的惩罚越重
  • multi_class : 告知模型要处理的分类问题是二分类还是多分类。默认为“ovr”(二分类)
    “multinational” : 表示处理多分类问题,在solver="liblinear"师不可用
    “auto” : 表示让模型自动判断分类类型
  • solver:指定求解方式
solver参数 liblinear lbfgs newton-cg sag saga
使用原理 梯度下降法 拟牛顿法的一种利用损失函数二阶导数矩阵来迭代优化损失函数 牛顿法的一种利用损失函数二阶导数矩阵来迭代优化损失函数 随机梯度下降 随机梯度下降的优化
支持的惩罚项 L1,L2 L2 L2g L2 L1,L2
multinormal
3.1.1 模型训练(LogisticRegression().fit())

该函数参数:训练集X,标签Y,正则化参数C,优化算法solver等
LogisticRegression().fit()用于训练模型,通过输入的训练数据,学习模型参数,使得模型能够对新的数据进行分类预测。该函数会根据训练数据的特征和标签,通过最小化损失函数的方法,调整模型参数,使得预测和实际结果尽可能接近。文章来源地址https://www.toymoban.com/news/detail-411926.html

3.1.2 模型训练后的属性和方法
  • 方法:
    clf.predict(X)  : 预测X的类别
    clf.predict_proba(X) : 预测X属于各类的概率
    clf.decision_function(X) :输出wx+b
    clf.score(X,y) :返回准确率,即模型预测值与y不同个数的占比
  • 属性
    clf.coef_ :模型系数
    clf.intrcept_ : 模型截距
    clf.classes_ :类别编号

4. 实例详解

到了这里,关于机器学习之逻辑回归的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习算法(一): 基于逻辑回归的分类预测

    逻辑回归的介绍 逻辑回归(Logistic regression,简称LR)虽然其中带有\\\"回归\\\"两个字,但逻辑回归其实是一个 分类 模型,并且广泛应用于各个领域之中。虽然现在深度学习相对于这些传统方法更为火热,但实则这些传统方法由于其独特的优势依然广泛应用于各个领域中。 而对于

    2024年01月15日
    浏览(49)
  • 【Python机器学习】实验04 多分类实践(基于逻辑回归)

    Iris数据集是常用的分类实验数据集,由Fisher, 1936收集整理。Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据样本,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Se

    2024年02月11日
    浏览(47)
  • 【机器学习300问】16、逻辑回归模型实现分类的原理?

            在上一篇文章中,我初步介绍了什么是逻辑回归模型,从它能解决什么问题开始介绍,并讲到了它长什么样子的。如果有需要的小伙伴可以回顾一下,链接我放在下面啦:                              【机器学习300问】15、什么是逻辑回归模型?     

    2024年01月25日
    浏览(55)
  • 【白话机器学习的数学】读书笔记(3)学习分类(感知机、逻辑回归)

    1.分类的目的 找到一条线把白点和黑点分开。这条直线是使 权重向量成为法线向量 的直线。(解释见下图) 直线的表达式为: ω ⋅ x = ∑ i = 1 n ω i ⋅ x i = 0 omega·x = sum_{i=1}^nomega_i · x_i = 0 ω ⋅ x = i = 1 ∑ n ​ ω i ​ ⋅ x i ​ = 0 ω omega ω 是权重向量 权重向量就是我们想要知

    2024年01月18日
    浏览(55)
  • 【Python机器学习】实验04(1) 多分类(基于逻辑回归)实践

    Iris数据集是常用的分类实验数据集,由Fisher, 1936收集整理。Iris也称鸢尾花卉数据集,是一类多重变量分析的数据集。数据集包含150个数据样本,分为3类,每类50个数据,每个数据包含4个属性。可通过花萼长度,花萼宽度,花瓣长度,花瓣宽度4个属性预测鸢尾花卉属于(Se

    2024年02月14日
    浏览(47)
  • 【AI底层逻辑】——篇章5(上):机器学习算法之回归&分类

    目录 引入 一、何为机器学习 1、定规则和学规则 2、算法的定义

    2024年02月16日
    浏览(56)
  • 机器学习基础之《回归与聚类算法(4)—逻辑回归与二分类(分类算法)》

    一、什么是逻辑回归 1、逻辑回归(Logistic Regression)是机器学习中的一种分类模型,逻辑回归是一种分类算法,虽然名字中带有回归,但是它与回归之间有一定的联系。由于算法的简单和高效,在实际中应用非常广泛 2、叫回归,但是它是一个分类算法 二、逻辑回归的应用场

    2024年02月07日
    浏览(55)
  • 机器学习实战:Python基于Logistic逻辑回归进行分类预测(一)

    1.1 Logistic回归的介绍 逻辑回归( Logistic regression ,简称 LR )是一种经典的二分类算法,它将输入特征与一个sigmoid函数进行线性组合,从而预测输出标签的概率。该算法常被用于预测离散的二元结果,例如是/否、真/假等。 优点: 实现简单。Logistic回归的参数可以用极大似然

    2024年02月08日
    浏览(42)
  • 机器学习(10) 逻辑回归:多元分类(Multi-class classification)

    对于数据集中存在多个类别的分类问题,我们可以采用一种叫做 One-vs-rest 的方法,将其转化成二元分类的问题,然后再进行解决。 前面的是对于二元分类问题,应该如何去处理其预测函数、代价函数和梯度下降算法。 但是多元的分类才是生活常见的情况。 例如对于邮件,我

    2024年02月02日
    浏览(52)
  • 机器学习实验1——朴素贝叶斯和逻辑回归分类Adult数据集

    基于Adult数据集,完成关于收入是否大于50K的逻辑回归分类、朴素贝叶斯模型训练、测试与评估。 认识数据 14个特征变量如下 1个目标变量:Income:50K 或 50K 填充缺失值(“ ?”) 统计各类型数据缺失个数如下,这三种缺失数据类型均为离散型(discrete),因此采用众数填充较

    2024年01月23日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包