我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来)

这篇具有很好参考价值的文章主要介绍了我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

我想入门AI,从简单的机器学习开始吧。(这是我学习过程中做的笔记,有见解不同的兄弟姐妹们也欢迎留言)我本人学习过程喜欢看视频而不是看书,针对看视频学习更高效和看书更高效的问题争论过很多次,但是个人感觉视频更高效,知识更容易进入我的大脑袋~

学习这一部分我看的视频是b站-迪哥谈AI的视频,有需要的小伙伴也可以去看看哦。

一、线性回归原理

线性回归可以认为是单层的,多层线性回归就是神经网络。

在有监督学习中,有两类问题——分类回归

比如去银行贷款,银行借or不借,属于分类问题;借多少钱,属于回归问题。

线性回归是一个有监督学习,因此在训练模型的过程中需要有“标签”(Y值),X1,X2就是特征。

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

求回归方程的目标就是求出上图中的“参数”θ1和θ2。

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

二、误差项定义

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

其中,θ1和θ2是权重项,θ0是偏置项,θ0控制平面的上下浮动,只进行微调,不能大范围调整。

在构造上述整合后的函数时,需要人为地加入x0(是为了矩阵的计算),如下图所示:

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

上式中,θ未知,x已知,整合后的式子即为预测值,那么真实值的计算方法需要加“误差”,如下图所示,平面上蓝色点为预测值,红色为真实值。上标i代表“每个点”:“真实值 = 预测值 + 误差”。

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

那么,什么叫做“机器学习”

首先告诉机器你的数据是什么。x就是你的数据。

然后要告诉机器“怎样学”(核心)。这种学习的方法就是Loss _funnction,称作损失函数,也成为“目标函数”。

给机器一堆数据,再告诉它目标,然后机器根据目标的方向,来学习到底什么样的参数最符合目标。

那么,我们希望上图的误差项越小越好,意味着当损失函数 = 0,认为是最好的情况

三、独立同分布

 误差项是独立同分布的。

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

通常数据来源于生活,可以近似认为误差服从上图描述,就好比Loss_function = 0无法做到一样,近似即可。

四、似然函数

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归仔细看上面式(1),x和y已知,的分布根据第三节已经知道,它服从均值为0方差为的高斯分布,现在需要求解的是θ。

的分布满足式(2),这个分布是关于误差项的,那我想求的最终结果是谁?是θ!因此要将和相关的式子转换成和θ相关的才行!

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

 就是首先要找个θ,这个θ和x组合之后的函数与真实值y越接近越好,可能性p越大越好。怎么个事儿?继续往下看。

这里就涉及一个东西——似然函数

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

在似然函数中,“数据越多,结果越准”,所以要很多数据相乘,那么为啥要相乘而不是相加?这就涉及数学知识:

前面说误差是独立同分布的,这种条件下,联合概率密度=边缘概率密度的乘积。

好的,然后刚刚说“要找个θ,这个θ和x组合之后的函数与真实值y越接近越好,可能性越大越好。”,显然L(θ)越大越好,那就是需要求出L(θ)的极大值,显然,当函数变换为logL(θ),根本不影响θ的取值(想求的是极值点而不是极值)。

下面求解这个对数似然方程的极大值。对数可以把乘法变成加法,我们认为log 就是 ln,即

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

想要这个似然函数越大越好,就需要B项越小越好,于是就有我们经常见到的式子J(θ),称作损失函数或目标函数。至此,可以看出我们需要求解能让J(θ)更小的θ的值。

至此,你应该能看出,“似然函数”不是“线性回归”所特有的,而是存在于非常多的机器学习问题当中,而且得到最小二乘法的前提是啥?是误差独立同分布!怎么样?前后的知识串起来了吧!

OK,我们趁热打铁,继续计算J(θ)怎么算:

我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归

要注意,X可不是一个数字,而是一个“向量”或者说“矩阵”,矩阵求平方时需要转置,也就是第一行的表达式那样(y和θ也不是数字!)。

请问我们的目标是想求什么?答:想求出在θ是多少时能让J(θ)取得极小值,显然将J(θ)对θ求偏导就行!也就是上图中的后面两个式子。

(上面偏导这一步中,用到的公式为:当A为对称矩阵,那么我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来),人工智能,笔记,线性回归,鼠标写的字,见谅🧡)

至此,完成了对θ的求解

但是到这里,是不是发现一个问题:所谓的机器学习要强调的是“学习”,这个线性回归的求解过程哪里出现“学习”的过程了?按照上面这个式子,根本看不出学习的过程,直接把X和y带进最后一个表达式即可,没有学习。

理论上我们认为的学习过程,应该是看到第一个样本X,发现和y差了一些,然后调一调,接下来再看和y差多少,不断学习直到和y相差无几。而且最后这个式子出现了“求逆”,这就很难办了,因为并不是所有矩阵能求逆,很多矩阵不可逆,因此很多情况下不能利用上述过程来求解,具体怎么做呢?请听下回分解。

下节将讲解“梯度下降”相关原理。文章来源地址https://www.toymoban.com/news/detail-755396.html

到了这里,关于我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线性回归基本原理和公式推导

    回复我们公众号“1号程序员”的“E001”可以获取《BAT机器学习面试1000题》下载链接。[关注并回复:【E001】] 线性回归是一种监督式机器学习算法,它计算因变量与一个或多个独立特征之间的线性关系。当独立特征的数量为1时,被称为单变量线性回归;在存在多于一个特征

    2024年02月11日
    浏览(46)
  • 简单线性回归原理&sklearn简单实现

    回归算法是相对分类算法而言的,与我们想要预测的目标变量y的值类型有关。 有时分类问题也可以转化为回归问题,例如的肺癌预测,我们可以用回归模型先预测出患肺癌的概率,然后再给定一个阈值, 例如50%,概率值在50%以下的人划为没有肺癌,50%以上则认为患有肺癌。

    2024年03月10日
    浏览(46)
  • [学习笔记] [机器学习] 10. 支持向量机 SVM(SVM 算法原理、SVM API介绍、SVM 损失函数、SVM 回归、手写数字识别)

    视频链接 数据集下载地址:无需下载 学习目标: 了解什么是 SVM 算法 掌握 SVM 算法的原理 知道 SVM 算法的损失函数 知道 SVM 算法的核函数 了解 SVM 算法在回归问题中的使用 应用 SVM 算法实现手写数字识别器 学习目标: 了解 SVM 算法的定义 知道软间隔和硬间隔 在很久以前的

    2024年02月09日
    浏览(90)
  • python机器学习(五)逻辑回归、决策边界、代价函数、梯度下降法实现线性和非线性逻辑回归

    线性回归所解决的问题是把数据集的特征传入到模型中,预测一个值使得误差最小,预测值无限接近于真实值。比如把房子的其他特征传入到模型中,预测出房价, 房价是一系列连续的数值,线性回归解决的是有监督的学习。有很多场景预测出来的结果不一定是连续的,我们

    2024年02月15日
    浏览(87)
  • 【AI】机器学习——线性模型(逻辑斯蒂回归)

    逻辑回归输出的是实例属于每个类别的似然概率,似然概率最大的类别就是分类结果 在一定条件下,逻辑回归模型与朴素贝叶斯分类器等价 多分类问题可以通过多次二分类或者Softmax回归解决 3. 线性回归模型 4.4 线性分类模型——感知器 目标:用判别模型解决分类问题 4.1.

    2024年02月09日
    浏览(43)
  • 【机器学习】P2 线性回归、损失函数与梯度下降

    线性回归简单的说就是线性函数; 线性回归属于机器学习 回归问题; 在线性回归建立的线性关系的模型中,假设目标变量和自变量之间存在一种线性关系,模型的目标是找到最佳的拟合线,是的模型对于未知的数据能够进行最准确的预测; 线性回归模型的一般形式为: y

    2023年04月08日
    浏览(42)
  • 机器学习:线性回归模型的原理、应用及优缺点

    线性回归是一种统计学和机器学习中常用的方法,用于建立变量之间线性关系的模型。其原理基于假设因变量(或响应变量)与自变量之间存在线性关系。 由解释变量去估计被解释变量的 平均值 无 偏 性 、 有 效 性 、 一 致 性 下面是线性回归模型的基本原理: 模型拟合:

    2024年01月20日
    浏览(46)
  • 机器学习与深度学习——自定义函数进行线性回归模型

    目的与要求 1、通过自定义函数进行线性回归模型对boston数据集前两个维度的数据进行模型训练并画出SSE和Epoch曲线图,画出真实值和预测值的散点图,最后进行二维和三维度可视化展示数据区域。 2、通过自定义函数进行线性回归模型对boston数据集前四个维度的数据进行模型

    2024年02月13日
    浏览(42)
  • 【深入探究人工智能】逻辑函数|线性回归算法|SVM

    🎉博客主页:小智_x0___0x_ 🎉欢迎关注:👍点赞🙌收藏✍️留言 🎉系列专栏:小智带你闲聊 🎉代码仓库:小智的代码仓库 机器学习算法是一种基于数据和经验的算法,通过对大量数据的学习和分析,自动发现数据中的模式、规律和关联,并利用这些模式和规律来进行预测

    2024年02月08日
    浏览(61)
  • 数学建模-多元线性回归笔记

    1.学模型✅ 2.看专题论文并复习算法 多元线性回归 无偏性:预测值与真实值非常接近 一致性:样本量无限增大,收敛于待估计参数的真值 如何做:控制核心解释变量和u不相关 四类模型回归系数的解释 截距项不用考虑 一元线性回归:y = a + bx + u x每增加1个单位,y平均变化

    2024年02月12日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包