【机器学习300问】61、逻辑回归与线性回归的异同?

这篇具有很好参考价值的文章主要介绍了【机器学习300问】61、逻辑回归与线性回归的异同?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

        本文讲述两个经典机器学习逻辑回归(Logistic Regression)和线性回归(Linear Regression)算法的异同,有助于我们在面对实际问题时更好的进行模型选择。也能帮助我们加深对两者的理解,掌握这两类基础模型有助于进一步理解更复杂的模型结构,例如逻辑回归是许多复杂分类算法的基础模型之一,对其深入理解有助于后续学习神经网络、支持向量机等更为复杂的模型。

        如果对这两个模型的基本知识有所遗忘,可以观看我之前的文章哦:

【机器学习300问】15、什么是逻辑回归模型?【机器学习300问】8、为什么要设计代价函数(损失函数)?它有什么用?

一、逻辑回归于线性回归的区别

(1)区别1:使用场景不同

        逻辑回归和线性回归的核心区别在于它们的目的和适用场景,逻辑回归处理的是分类问题,线性回归处理的是回归问题,这是两者的最本质的区别。

① 逻辑回归

        虽然名称中有“回归”二字,但实际上主要用于解决分类问题,尤其是二分类问题,当然也可以通过扩展应用到多分类问题上。逻辑回归模型预测的是一个事件发生的概率,输出的是介于0和1之间的概率值,然后可以设定一个阈值来决定最终的类别归属,例如预测用户是否会点击广告、病人是否有某种疾病等。

② 线性回归

        是一种回归模型,用于估计因变量(目标变量)和一个或多个自变量之间的连续关系,输出是一个连续的数值,适合于解决那些需要预测具体数值的问题,如预测房价、销售额、体重增长等。

        简单来说,线性回归关注的是“多少”的数值,逻辑回归关注的是“是与否”的可能性。在模型内部,逻辑回归确实采用了类似线性回归的加权求和形式,但是最后会通过一个非线性函数(通常是Sigmoid函数)将线性部分映射到概率空间。

(2)区别2:输出值的形式不同

        此外两者还在输出值(因变量)的形式上有差异,逻辑回归中的输出值是离散的,线性回归中的输出值是连续的。

① 逻辑回归

        逻辑回归模型内部采用线性函数对输入特征进行加权求和(也就是线性组合),但随后会对这个线性组合应用一个非线性函数,通常是sigmoid函数,将其映射到(0,1)之间,表达的是一个概率值。由于最终的概率被设定一个阈值来决定类别(例如,概率大于0.5则判为正类,否则为负类),因此其输出值实际应用中往往转化为离散的类别标签。

② 线性回归

        线性模型的输出值是连续的,直接反映了预测变量与因变量之间的线性关系。线性回归的目标是找到最优的直线或超平面来拟合数据点,其预测结果可以是任何实数,没有限制在特定范围内,因此非常适合于预测像房价、销售额、身高、体重等连续型数值变量。

(3)区别3:损失函数不同

① 逻辑回归

        通常使用均方误差(MSE)作为损失函数,来度量预测值与实际值之间的差异。

② 线性回归

        使用对数损失函数,也称为交叉熵损失,它度量的是实际分类和预测分类概率分布之间的差距。

二、逻辑回归于线性回归的相似之处

(1)相似1:都使用了极大似然估计

        无论是线性回归还是逻辑回归,两者都使用了最大似然估计来对训练样本进行建模。只不过它们背后的概率分布假设和优化的目标函数有所不同。

① 逻辑回归

        针对二分类问题,由于响应变量是分类变量(通常是0和1)它的最大似然函数会有所不同。因变量被看作是服从伯努利分布或者多项式分布(在多分类问题中对应的是多项式 logistic 回归)。逻辑回归同样使用极大似然估计,只是这时是在伯努利分布条件下,通过最大化所有样本观测到的结果(0或1)出现的概率之乘积来估计模型参数。

② 线性回归

        如果假设因变量(响应变量)遵循正态分布(即满足高斯分布假设),那么最小二乘估计可以被视为最大似然估计的一种特殊情况。当误差项独立同分布,均值为0,方差为常数时,通过最大化似然函数(等价于最小化误差的平方和),可以得到模型参数。

(2)相似2:都使用了梯度下降算法

        两者都可以在求解参数的过程中,使用梯度下降算法。梯度下降是一种通用的优化方法,可用于求解各种模型的损失函数最小化问题。

        不论是线性回归模型最小化均方误差(Mean Squared Error, MSE),还是逻辑回归模型最大化似然函数(通过最小化负对数似然函数,即交叉熵损失函数),都可以运用梯度下降或其变种(如随机梯度下降、批量梯度下降、小批量梯度下降等)来迭代更新模型参数。这种迭代过程使得模型参数逐步向着减少损失函数值的方向变化,从而达到优化模型的目的。文章来源地址https://www.toymoban.com/news/detail-849070.html

到了这里,关于【机器学习300问】61、逻辑回归与线性回归的异同?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python机器学习(五)逻辑回归、决策边界、代价函数、梯度下降法实现线性和非线性逻辑回归

    线性回归所解决的问题是把数据集的特征传入到模型中,预测一个值使得误差最小,预测值无限接近于真实值。比如把房子的其他特征传入到模型中,预测出房价, 房价是一系列连续的数值,线性回归解决的是有监督的学习。有很多场景预测出来的结果不一定是连续的,我们

    2024年02月15日
    浏览(88)
  • 机器学习算法:线性回归、逻辑回归、决策树和随机森林解析

    引言 机器学习算法是人工智能领域的核心,它们用于解决各种问题,从预测房价到图像分类。本博客将深入探讨四种常见的机器学习算法:线性回归、逻辑回归、决策树和随机森林。 线性回归 什么是线性回归? 线性回归是一种用于建立连续数值输出的机器学习模型的算法。

    2024年02月10日
    浏览(53)
  • 机器学习(六):回归分析——鸢尾花多变量回归、逻辑回归三分类只用numpy,sigmoid、实现RANSAC 线性拟合

    [ 实验1 回归分析] 一、 预备知识 使用梯度下降法求解多变量回归问题 数据集 Iris 鸢尾花数据集是一个经典数据集,在统计学习和机器学习领域都经常被用作示例。数据集内包含 3 类共 150 条记录,每类各 50 个数据,每条记录都有 4 项特征:花萼长度、花萼宽度、花瓣长度、

    2023年04月13日
    浏览(82)
  • 机器学习之线性回归与逻辑回归【完整房价预测和鸢尾花分类代码解释】

    目录 前言 一、什么是线性回归 二、什么是逻辑回归 三、基于Python 和 Scikit-learn 库实现线性回归 示例代码:  使用线性回归来预测房价: 四、基于Python 和 Scikit-learn 库实现逻辑回归 五、总结  线性回归的优缺点总结: 逻辑回归(Logistic Regression)是一种常用的分类算法,具有

    2024年04月13日
    浏览(45)
  • 深度学习(一),线性回归与逻辑回归

            代码是自己敲得,图是自己画的,连公式都是一个一个字打的, 希望赞是你给的(≧◡≦)。         线性回归(Liner Regression),俗称lr。                                                                         一个大家熟悉得不能再熟悉的式子,便是线性回归

    2024年03月25日
    浏览(43)
  • 机械学习模型训练常用代码(随机森林、聚类、逻辑回归、svm、线性回归、lasso回归,岭回归)

    更多pandas操作请参考添加链接描述pandas对于文件数据基本操作 导入的包sklearn 字符串编码处理,LabelEncoder TfidfVectorizer结合TruncatedSVD 排除某一列,例如 如果需要用到回归则换成RandomForestRegressor 数据在dc_matrix里面 绘制距离 #加入到表里面 师范,保存文本模型,使用其转换,调

    2023年04月14日
    浏览(52)
  • 【机器学习笔记】3 逻辑回归

    分类问题监督学习最主要的类型,主要特征是标签离散,逻辑回归是解决分类问题的常见算法 ,输入变量可以是离散的也可以是连续的 先从用蓝色圆形数据定义为类型1,其余数据为类型2;只需要分类1次,步骤:①-② 先定义其中一类为类型1(正类),其余数据为负类(r

    2024年02月19日
    浏览(37)
  • 【机器学习】逻辑回归(二元分类)

    离散感知器:输出的预测值仅为 0 或 1 连续感知器(逻辑分类器):输出的预测值可以是 0 到 1 的任何数字,标签为 0 的点输出接近于 0 的数,标签为 1 的点输出接近于 1 的数 逻辑回归算法(logistics regression algorithm):用于训练逻辑分类器的算法 sigmoid 函数: g ( z ) = 1 1 +

    2024年02月21日
    浏览(51)
  • 从头开始机器学习:逻辑回归

            本篇实现线性回归的先决知识是:基本线性代数,微积分(偏导数)、梯度和、Python (NumPy);从线性方程入手,逐渐理解线性回归预测问题。

    2024年02月07日
    浏览(41)
  • 机器学习课后习题 --- 逻辑回归

    1.一监狱人脸识别准入系统用来识别待进入人员的身份,此系统一共包括识别4种不同的人员:狱警,小偷,送餐员,其他。下面哪种学习方法最适合此种应用需求: A:二分类问题                                                   B:多分类问题 C:回归问题           

    2024年02月10日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包