机器学习中的数学原理——对数似然函数

这篇具有很好参考价值的文章主要介绍了机器学习中的数学原理——对数似然函数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

这个专栏主要是用来分享一下我在 机器学习中的 学习笔记及一些感悟,也希望对你的学习有帮助哦!感兴趣的小伙伴欢迎 私信或者评论区留言!这一篇就更新一下《 白话机器学习中的数学——对数似然函数》!

目录

一、什么是对数似然函数

二、算法分析

三、总结 


一、什么是对数似然函数

对数似然是Minitab 为了确定估计系数(β) 的最优值而最大化的表达式。 由于对数似然是样本数量的函数,因此它们的值不能单独作为拟合值的指数使用,但可以用来比较不同系数的拟合值。 由于您要最大化对数似然,因此值越大越好。

二、算法分析

之前我们已经接触过似然函数的概念,我们认为似然函数 L(θ) 中,使其值最大的参数θ能够最近似地说明训练数据。和随机梯度下降法一样,我们接下来要做的就是对似然函数进行微分,求出参数 θ。不过直接对似然函数进行微分有点困难,在此之前要把函数变形。联合概率中的概率都是 1 以下的数,所以像联合概率这种概率乘法的值会越来越小。如果值太小,编程时会出现精度问题。并且与加法相比,乘法的计算量要大得多。

想要解决这些问题,只要取似然函数的对数就好了。像这样在等式两边加上 log 即可:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 log 是单调递增函数。log 函数的图形如下所示:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

图形一直向右上方延伸。单调递增函数是在 x1 < x2 时,f(x1) < f(x2) 的函数 f(x)。log(x)的图形一直向右上方延伸,而且在 x1 < x2时,log(x1) < log(x2)也成立。

我们现在考察的似然函数也是在 L(θ1) < L(θ2) 时,有logL(θ1) < logL(θ2) 成立。也就是说,使 L(θ) 最大化等价于使logL(θ) 最大化。我们把对数似然函数变形看看:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 每一行的变形分别利用了下面这些特性,好好理解一下:

  • 第 2 行是 log(ab) = log a + log b
  • 第 3 行是 log ab = b log a
  • 第 4 行是 P(y(i) = 0|x(i) ) = 1 − P(y(i) = 1|x(i) )

前两个是对数函数的特性,下面对第 4 行进行解释:现在我们考虑的只有 y = 1 和 y = 0 两种情况,所以应有 P(y(i) = 0|x(i) ) + P(y(i) = 1|x(i) ) = 1

下面要做的就是就是进行偏分求未知量。前面讲了很多,总结一下就是逻辑回归将这个对数似然函数用作 目标函数。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 接下来,对各个参数 θj 求微分就行了:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 和回归的时候是一样的,我们把似然函数也换成这样的复合函数, 然后依次求微分。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

这个是 u 对 v 微分,log(v) 的微分是 1/v。对 log(1 − v) 微分时,要像这样通过复合函数来求。还 要注意,这样做最后的表达式前面会有个负号。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 所以,微分结果是这样的:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 接下来是 v 对 θj 的微分:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

这个看上去有点麻烦,不过其实我们已经知道了 sigmoid 函数的 微分是这样的,所以用这个应该就可以计算了。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

现在 fθ(x)本身就是 sigmoid 函数,所以这个微分表达式可以直接使用。设 z = θTx,然后再一次使用复合函数的微分会比较好。

 对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

v 对 z 微分的部分也就是 sigmoid函数的微分。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 z 对 θj 的微分就简单了。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 接下来把结果相乘就好了:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 我们就代入各个结果,然后通过展开、约分,使表达式 变得更简洁。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

接下来要做的就是从这个表达式导出参数更新表达式。不过现在是以最大化为目标,所以必须按照与最小化时相反的方向移动参数哦。也就是说,最小化时要按照与微分结果的符号相反的 方向移动,而最大化时要与微分结果的符号同向移动。

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

 为了与回归时的符号保持一致,也可以将表达式调整为下面这样。注意,η 之前的符号和∑中的符号反转了。这就是我们最终求得的结果表达式:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络文章来源地址https://www.toymoban.com/news/detail-846061.html

三、总结 

通过上面的推导,我们学习了最大似然函数,这与我们之前接触的最小二乘法不同,最小二乘法以误差作为评判标准,误差越小越好,而最大似然函数以概率作为评判标准,概率越大越好。在计算概率时,我们求了一次对数log计算,避免了连乘概率越来越小,受计算机计算进度影响也越来越大的问题。求得表达式之后的求微分也和我们之前讲的相似,只要采用连续偏导就可以了。计算过程挺复杂,不过最后的结果还挺简单的:

对数似然,白话机器学习的数学学习笔记,机器学习,人工智能,算法,神经网络

到了这里,关于机器学习中的数学原理——对数似然函数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习中的数学原理——模型评估与交叉验证

    惭愧惭愧!机器学习中的数学原理这个专栏已经很久没有更新了!前段时间一直在学习深度学习,paddlepaddle,刷题专栏跟新了,这个专栏就被打入冷宫了。这个专栏名为 白话机器学习中数学学习笔记 ,主要是用来分享一下我在 机器学习中的学习笔记及一些感悟,也希望对你

    2024年01月15日
    浏览(105)
  • 机器学习中的数学原理——精确率与召回率

    在Yolov5训练完之后会有很多图片,它们的具体含义是什么呢? 通过这篇博客,你将清晰的明白什么是 精确率、召回率 。这个专栏名为白话机器学习中数学学习笔记,主要是用来分享一下我在 机器学习中的学习笔记及一些感悟,也希望对你的学习有帮助哦!感兴趣的小伙伴欢

    2023年04月09日
    浏览(30)
  • 【人工智能】— 逻辑回归分类、对数几率、决策边界、似然估计、梯度下降

    考虑二分类问题,其中每个样本由一个特征向量表示。 直观理解:将特征向量 x text{x} x 映射到一个实数 w T x text{w}^Ttext{x} w T x 一个正的值 w T x text{w}^Ttext{x} w T x 表示 x text{x} x 属于正类的可能性较高。 一个负的值 w T x text{w}^Ttext{x} w T x 表示 x text{x} x 属于负类的可能性

    2024年02月09日
    浏览(34)
  • 我的AI笔记_1(线性回归原理、误差、似然函数、最小二乘法由来)

    我想入门AI,从简单的机器学习开始吧。(这是我学习过程中做的笔记,有见解不同的兄弟姐妹们也欢迎留言)我本人学习过程喜欢看视频而不是看书,针对看视频学习更高效和看书更高效的问题争论过很多次,但是个人感觉视频更高效,知识更容易进入我的大脑袋~ 学习这一

    2024年02月05日
    浏览(32)
  • 机器学习|DBSCAN 算法的数学原理及代码解析

    聚类是机器学习领域中一项重要的任务,它可以将数据集中相似的样本归为一类。 DBSCAN(Density-Based Spatial Clustering of Applications with Noise) 是一种是一种经典的密度聚类算法,它能够有效地发现任意形状的聚类簇,并且可以识别出噪声点。在本文中,我们将深入探讨 DBSCAN 算法

    2024年02月11日
    浏览(32)
  • 深入理解机器学习与极大似然之间的联系

    似然函数:事件A的发生含着有许多其它事件的发生。所以我就把这些其它事件发生的联合概率来作为事件A的概率,也就是似然函数。数据类型的不同(离散型和连续性)就有不同的似然函数 极大似然极大似然估计方法(Maximum Likelihood Estimate,MLE):那就是让这个似然函数的

    2024年02月13日
    浏览(37)
  • 白话机器学习笔记(二)学习分类

    分类用图形来解释,把他想象为有大小有方向带箭头的向量。 设权重向量为 w w w ,虚线为使 权重向量 称为 法线向量 的直线。 直线的表达式为: w ⋅ x = 0 wcdot x=0 w ⋅ x = 0 (两个向量的内积) 也可写为: w ⋅ x = ∑ i = 1 n w i x i = w 1 x 1 + w 2 x 2 = 0 wcdot x=sumlimits_{i=1}^nw_ix_i=w_

    2024年02月15日
    浏览(25)
  • 白话机器学习笔记(一)学习回归

    表达式: f θ ( x ) = θ 0 + θ 1 x f_theta(x)=theta_0+theta_1x f θ ​ ( x ) = θ 0 ​ + θ 1 ​ x (常用 θ theta θ 表示未知数、 f θ ( x ) f_theta(x) f θ ​ ( x ) 表示含有参数 θ theta θ 并且和变量 x x x 相关的函数) 假设有 n n n 个训练数据,那么它们的误差之和可以这样表示,这个表达式称

    2024年02月15日
    浏览(30)
  • 数学建模学习(102):成分数据分析之中心对数比转换【已修改】

    为什么要写这篇文章?背景源于2022国赛C题的评阅要点,很多参加数模的同学应该都看到了,估计几乎没有人听说过这个方法。因此,本文对该方法进行一个讲解。当然,其实你在这次比赛中没有用到这个方法,也不影响你的国奖。在我国赛辅导的几个同学中,我也是教他们

    2024年02月06日
    浏览(32)
  • 强化学习的数学原理学习笔记 - 值函数近似(Value Function Approximation)

    本系列文章介绍强化学习基础知识与经典算法原理,大部分内容来自西湖大学赵世钰老师的强化学习的数学原理课程(参考资料1),并参考了部分参考资料2、3的内容进行补充。 系列博文索引: 强化学习的数学原理学习笔记 - RL基础知识 强化学习的数学原理学习笔记 - 基于

    2024年01月22日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包