【机器学习】线性回归模型详解

这篇具有很好参考价值的文章主要介绍了【机器学习】线性回归模型详解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

PS:本文有一定阅读门槛,如果有不明白的地方欢迎评论询问!

1 模型概述

接下来我们将要学习我们的第一个模型——线性回归。比如说我需要根据数据预测某个面积的房子可以卖多少钱
【机器学习】线性回归模型详解
接下来我们会用到以下符号:

  • m:训练样本数量
  • x:输入值,又称为属性值
  • y:输出值,是我们需要的结果

我们会用 ( x , y ) (x,y) (x,y)表示一整个训练样本,使用 ( x ( i ) , y ( i ) ) (x^{(i)},y^{(i)}) (x(i),y(i))来表示第i个样例
我们将上图用表格表示出来如下:
【机器学习】线性回归模型详解
那么线性回归的预测模型如下:
【机器学习】线性回归模型详解
训练集输入到学习算法中,然后学习算法会根据数据训练出函数h。作为一个线性回归模型,其输出的h应该是 h ( x ) = θ 0 + θ 1 x h(x)=\theta_0+\theta_1x h(x)=θ0+θ1x,图像为一条直线。得到函数h后,我们只需要输入房屋的大小,就可以得到估算的价格

2 代价函数

以上面的 h ( x ) = θ 0 + θ 1 x h(x)=\theta_0+\theta_1x h(x)=θ0+θ1x为例子,不同的 θ 0 \theta_0 θ0和不同的 θ 1 \theta_1 θ1会得出不同的假设函数,我们需要做的是选择出恰当的值,使得假设函数和数据集中的点更好地拟合,也就是说对于样本 ( x i , y i ) (x_i, y_i) (xi,yi),值 ∣ h ( x i ) − y i ∣ |h(x_i)-y_i| h(xi)yi越小越好,进一步精确地定义我们要解决的问题就是,在让 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1尽量小的情况下, ∣ h ( x i ) − y i ∣ |h(x_i)-y_i| h(xi)yi越小越好,这是一个最小化问题。

那么我们用以下式子衡量假设函数的优劣:
J = 1 2 m ∑ i = 1 m h θ ( x ( i ) − y ( i ) ) 2 J = \frac{1}{2m}\sum_{i=1}^m h_\theta(x^{(i)}-y^{(i)})^2 J=2m1i=1mhθ(x(i)y(i))2
其中i表示的是第i个样例 ,总共有m个样例,这就是线性回归的代价函数,这个函数的值越小越好,接下来我们会详细剖析代价函数

我们先只考虑 h ( x ) = θ 1 x h(x)=\theta_1x h(x)=θ1x的情况,也就是 θ 1 = 0 \theta_1=0 θ1=0,那么如果数据集为(1,1),(2,2),(3,3),那么以 θ 1 \theta_1 θ1为横坐标,以 J ( θ 1 ) J(\theta_1) J(θ1)为纵坐标,可以画出如下图像
【机器学习】线性回归模型详解
可以看出 θ 1 = 1 \theta_1=1 θ1=1的时候 J ( θ 1 ) J(\theta_1) J(θ1)最小

当我们同时考虑 θ 1 \theta_1 θ1 θ 0 \theta_0 θ0的时候,得到的代价函数则是一个类似于等高线图的三维图像
【机器学习】线性回归模型详解
当然,我们也可以使用等高线标出:
【机器学习】线性回归模型详解
在图中,圆心部分是J值最小的部分,也就是拟合得最好的 θ 1 \theta_1 θ1 θ 0 \theta_0 θ0的取值,我们知道了J的图像之后,那么我们编写的算法的目标就是如何找到J的最小值

3 梯度下降

梯度下降是十分常用的算法,不仅仅是线性回归,其他机器学习算法中也会频繁用到。

假设我们现在有一个函数 J ( θ 0 , θ 1 ) J(\theta_0, \theta_1) J(θ0,θ1)(不一定是线性回归的代价函数),需要找出其最小值 m i n J ( θ 0 , θ 1 ) min J(\theta_0, \theta_1) minJ(θ0,θ1)

首先我们给 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1赋予初值,通常都是0,梯度下降需要做的事情就是不断微调两个值,从而找出J的最小值或者局部最小值。假设函数J图像如下:
【机器学习】线性回归模型详解
我们可以将图像想象成两个山,并且点站在了红色的山顶上,梯度下降就是环顾四周,看看哪个方向下山是最快的,也可以理解为斜率最大的方向。然后试探着迈出一步后,再重复上述步骤,直到找到一个地方,四周围的点集都要比该点高,那么这就是一个局部最优解或最优解,示例如下图

【机器学习】线性回归模型详解
这很像算法课里的贪心思想是不是!既然是贪心,那么得到的就可能不是最优解,比如下面的例子:
【机器学习】线性回归模型详解
如果我们更改一下起始点,那么按照上述的方法可能到达的地方就并非是J的最优解,而只是一个局部最优解。我们也可以看到,更改起始点会得到不同的局部最优解

梯度下降的数学定义如下:
【机器学习】线性回归模型详解
我们会反复做这一步,直到收敛。其中:=为赋值运算符, α \alpha α表示学习率,用来控制梯度下降时我们迈的步子有多大,以后会细讲。后面的 ∂ ∂ θ j J ( θ 0 , θ 1 ) \frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1) θjJ(θ0,θ1)则是一个导数,后面的则是指明了更新的条件,当j=0或者j=1的时候更新 ,更新的时候需要同时更新 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1。下面的Simultaneous update表明了其更新的过程,首先经值暂存于temp0和temp1中,然后将这两个值依次赋予 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1

假设我们的最小化参数只有 θ 1 \theta_1 θ1,并且 J ( θ 0 ) J(\theta_0) J(θ0)的曲线如下:
【机器学习】线性回归模型详解
如果我们从 θ 1 \theta_1 θ1处开始梯度下降,那么梯度下降要做的就是不断地更新 θ 1 : = θ 1 − ∂ ∂ θ 1 J ( θ 1 ) \theta_1 := \theta_1-\frac{\partial}{\partial\theta_1}J(\theta_1) θ1:=θ1θ1J(θ1),可以看出,这是一个递归的过程。仔细看这个公式,其中 ∂ ∂ θ 1 J ( θ 1 ) \frac{\partial}{\partial\theta_1}J(\theta_1) θ1J(θ1)是当前 θ 1 \theta_1 θ1所在位置的导数,也可以简单理解为点 ( θ 1 , J ( θ 1 ) ) (\theta_1, J(\theta_1)) (θ1,J(θ1))的斜率,那么如果 α \alpha α越大, θ 1 \theta_1 θ1变化得也越快。以上图为例子,其 θ 1 \theta_1 θ1所在位置的导数为正数,那么 θ 1 \theta_1 θ1会减小;如果 θ 1 \theta_1 θ1所在位置的导数为负数(比如下图的情况),那么 θ 1 \theta_1 θ1会逐渐增大

【机器学习】线性回归模型详解
上述两个例子说明,无论是什么情况,他都会趋向于走向J值更小的位置,如果已经到达了J值最小的位置,那么该位置的导数 ∂ ∂ θ 1 J ( θ 1 ) = 0 \frac{\partial}{\partial\theta_1}J(\theta_1)=0 θ1J(θ1)=0,此时的 θ 1 : = θ 1 − ∂ ∂ θ 1 J ( θ 1 ) \theta_1 := \theta_1-\frac{\partial}{\partial\theta_1}J(\theta_1) θ1:=θ1θ1J(θ1)就不会发生变化,另外,当 θ 1 \theta_1 θ1靠近最优解的时候,由于导数逐渐变小,其每次迈出的步子也越来越小。对于 α \alpha α值,如果学习速率太小,那么他需要很多次递归才能到达最低点;如果学习速率太大,那他会很有可能越过最低点,甚至会导致无法收敛或者直接就发散了。
【机器学习】线性回归模型详解
当然,在这个图像里只有一个局部最优解,这个局部最优解就是整体最优解,如果我们换一个图像会怎么样。
【机器学习】线性回归模型详解
如果是上述图像,也许我们到达了 θ 1 \theta_1 θ1的位置,这个位置是一个局部最优点,但是他并非是全局的最优解

将上面的过程推广开来,假设函数为 J ( θ 1 , θ 2 , θ 3 . . . . θ n ) J(\theta_1,\theta_2,\theta_3....\theta_n) J(θ1,θ2,θ3....θn),也可以应用梯度下降求出其最小值

4 线性回归中的梯度下降

本节将会用梯度函数和代价函数相结合,得到线性回归的算法,这可以用直线拟合数据。我们上文说到,线性回归的模型函数是 J = 1 2 m ∑ i = 1 m h θ ( x ( i ) − y ( i ) ) 2 J = \frac{1}{2m}\sum_{i=1}^m h_\theta(x^{(i)}-y^{(i)})^2 J=2m1i=1mhθ(x(i)y(i))2然后其梯度下降的函数为
θ j : = θ j − α ∂ ∂ θ j J ( θ 0 , θ 1 ) \theta_j := \theta_j-\alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1) θj:=θjαθjJ(θ0,θ1)将两者合并后可得出 α ∂ ∂ θ j J ( θ 0 , θ 1 ) = α ∂ ∂ θ j 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 \alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)=\alpha\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)})^2 αθjJ(θ0,θ1)=αθj2m1i=1m(hθ(x(i))y(i))2
又因为函数 h θ ( x ( i ) ) = θ 0 + θ 1 x ( i ) h_\theta(x^{(i)})=\theta_0+\theta_1x^{(i)} hθ(x(i))=θ0+θ1x(i),所以
α ∂ ∂ θ j J ( θ 0 , θ 1 ) = α ∂ ∂ θ j 1 2 m ∑ i = 1 m ( θ 0 + θ 1 x ( i ) − y ( i ) ) 2 \alpha\frac{\partial}{\partial\theta_j}J(\theta_0,\theta_1)=\alpha\frac{\partial}{\partial\theta_j}\frac{1}{2m}\sum_{i=1}^m (\theta_0+\theta_1x^{(i)}-y^{(i)})^2 αθjJ(θ0,θ1)=αθj2m1i=1m(θ0+θ1x(i)y(i))2接着我们就计算导数 ∂ ( 1 2 m ∑ i = 1 m ( θ 0 + θ 1 x ( i ) − y ( i ) ) 2 ) ∂ θ j \frac{\partial(\frac{1}{2m}\sum_{i=1}^m (\theta_0+\theta_1x^{(i)}-y^{(i)})^2)}{\partial\theta_j} θj(2m1i=1m(θ0+θ1x(i)y(i))2)如果是对 θ 0 \theta_0 θ0求偏导可以得出 ∂ ∂ θ 0 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) \frac{\partial}{\partial\theta_0}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)}) θ0J(θ0,θ1)=m1i=1m(hθ(x(i))y(i)) θ 1 \theta_1 θ1求偏导可得 ∂ ∂ θ 1 J ( θ 0 , θ 1 ) = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) ∗ x ( i ) \frac{\partial}{\partial\theta_1}J(\theta_0,\theta_1)=\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)})*x{(i)} θ1J(θ0,θ1)=m1i=1m(hθ(x(i))y(i))x(i)综上所述,可以知道最终 θ 0 \theta_0 θ0 θ 1 \theta_1 θ1的计算公式为
θ 0 : = θ 0 − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) \theta_0 := \theta_0-\alpha\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)}) θ0:=θ0αm1i=1m(hθ(x(i))y(i)) θ 1 : = θ 1 − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) ∗ x ( i ) \theta_1 := \theta_1-\alpha\frac{1}{m}\sum_{i=1}^m (h_\theta(x^{(i)})-y^{(i)})*x^{(i)} θ1:=θ1αm1i=1m(hθ(x(i))y(i))x(i)

还有一个问题就是,我们知道,代价函数可能会有数个局部最优解,梯度下降的起始点会使得梯度下降的结果导向不同的局部最优解。如下图所示
【机器学习】线性回归模型详解
但是实际上我们在线性回归中并不需要考虑这个问题,因为线性回归的代价函数总是一个弓形函数,它只有一个全局最优。
【机器学习】线性回归模型详解
当你使用线性回归计算这种代价函数的梯度下降,他总会收敛到全局最优,因为他只有一个最优解

上面介绍的算法又称为Batch梯度下降算法,其含义是梯度下降的每一步都会考虑整个数据集的数据。与之相对的是,某些算法在进行梯度下降时会只考虑数据集中的部分子集,比如说和当前点相关性较大的数据文章来源地址https://www.toymoban.com/news/detail-438872.html

到了这里,关于【机器学习】线性回归模型详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习6:使用 TensorFlow 的训练线性回归模型

    纸上得来终觉浅,绝知此事要躬行。前面 5 篇文章介绍了机器学习相关的部分基础知识,在本章,笔者将讲解基于 TensorFlow 实现一个简单的线性回归模型,以便增强读者对机器学习的体感。 目录 1.环境准备 1.1 安装 Python3 1.2 安装 PyCharm 1.3 安装 TensorFlow 1.4 安装 pandas

    2024年02月11日
    浏览(41)
  • 机器学习:线性回归模型的原理、应用及优缺点

    线性回归是一种统计学和机器学习中常用的方法,用于建立变量之间线性关系的模型。其原理基于假设因变量(或响应变量)与自变量之间存在线性关系。 由解释变量去估计被解释变量的 平均值 无 偏 性 、 有 效 性 、 一 致 性 下面是线性回归模型的基本原理: 模型拟合:

    2024年01月20日
    浏览(45)
  • 每天五分钟机器学习:构建多特征的线性回归模型

    在实际应用中,有时候一个单一特征的线性回归模型可能无法很好地解释数据,因此我们可以构建多特征的线性回归模型来提高模型的预测能力。本文还是拿房价问题来举例,来看以下多特征的线性回归模型如何构建? 以房价预测为例,现在的样本特征不再是一个了,此时数

    2024年02月13日
    浏览(46)
  • 每天五分钟机器学习:多项式非线性回归模型

    在前面的课程中,我们学习了线性回归模型和非线性回归模型的区别和联系。多项式非线性回归模型是一种用于拟合非线性数据的回归模型。与线性回归模型不同,多项式非线性回归模型可以通过增加多项式的次数来适应更复杂的数据模式。在本文中,我们将介绍多项式非线

    2024年02月16日
    浏览(47)
  • 【吴恩达·机器学习】第二章:单变量线性回归模型(代价函数、梯度下降、学习率、batch)

    博主简介: 努力学习的22级计算机科学与技术本科生一枚🌸 博主主页: @Yaoyao2024 每日一言🌼: 勇敢的人,不是不落泪的人,而是愿意含着泪继续奔跑的人。 ——《朗读者》 本系列博客文章是博主本人根据吴恩达老师2022年的机器学习课程所学而写,主要包括老师的核心讲义

    2024年02月19日
    浏览(45)
  • 【2022吴恩达机器学习课程视频翻译笔记】3.2线性回归模型-part-2

    Let’s look in this video at the process of how supervised learning works. Supervised learning algorithm will input a dataset and then what exactly does it do and what does it output? Let’s find out in this video. Recall that a training set in supervised learning includes both the input features, such as the size of the house and also the output targets,

    2024年02月12日
    浏览(35)
  • Python和PyTorch深入实现线性回归模型:一篇文章全面掌握基础机器学习技术

    线性回归是一种统计学中的预测分析,该方法用于建立两种或两种以上变量间的关系模型。线性回归使用最佳的拟合直线(也称为回归线)在独立(输入)变量和因变量(输出)之间建立一种直观的关系。简单线性回归是输入变量和输出变量之间的线性关系,而多元线性回归

    2024年02月15日
    浏览(48)
  • 机器学习——线性回归/岭回归/Lasso回归

    线性回归会用到python第三方库:sklearn.linear_model中的LinearRegression 导入第三方库的方法:from sklearn.linear_model import LinearRegression 使用LinearRegression(二维数据,一维数据)进行预测,其中数据类型可以是pandas中的DataFrame或者series,也可以是numpy中的array数据,但维度一定要正确输入。

    2024年02月10日
    浏览(45)
  • 机器学习~从入门到精通(二)线性回归算法和多元线性回归

    SimpleLinearRegression.py moduel_selection.py draft.py lin_fit(x,y) lin_fit2(x,y) x.shape y.shape MSE mean squared error 均方误差 R squared error

    2024年02月01日
    浏览(68)
  • Spark-机器学习(3)回归学习之线性回归

    在之前的文章中,我们了解我们的机器学习,了解我们spark机器学习中的特征提取和我们的tf-idf,word2vec算法。想了解的朋友可以查看这篇文章。同时,希望我的文章能帮助到你,如果觉得我的文章写的不错,请留下你宝贵的点赞,谢谢。 Spark-机器学习(2)特征工程之特征提

    2024年04月22日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包