深度学习-必备的数学知识-概率论4

这篇具有很好参考价值的文章主要介绍了深度学习-必备的数学知识-概率论4。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度学习

必备的数学知识

概率论

我们将接着上一篇文章继续讲解。
在接下来的文章中,将会把随机变量本身写作大写字母,随机变量的值写作小写字母。

期望、方差和协方差

期望(expectation)是指随机变量X所有可能取值的平均或期望值。期望可以看作随机变量的中心或平均位置。换句话说期望是随机变量可能取值的加权平均,权重就是每个值的概率。
对于离散型随机变量,其期望 E [ X ] \mathbb{E}[X] E[X]定义为
E [ X ] = ∑ x x P ( X ) \mathbb{E}[X]=\sum_{x} xP(X) E[X]=xxP(X)
其中 x x x x x x所有可能取值, P ( x ) P(x) P(x) X X X取值 x x x的概率
对于连续性随机变量,其期望 E [ X ] \mathbb{E}[X] E[X]定义为
E [ X ] = ∫ x P ( X ) d x \mathbb{E}[X]=\int xP(X) dx E[X]=xP(X)dx
其中 x x x x x x所有可能取值, P ( x ) P(x) P(x) X X X质量密度函数。
我们还可以扩展到更一般的情况。函数 f ( x ) f(x) f(x)关于离散型随机变量X的概率分布 P ( x ) P(x) P(x)的期望或期望值:
E X ∼ P [ f ( x ) ] = ∑ x f ( x ) P ( x ) \mathbb{E}_{X \sim P} [f(x)]=\sum_{x} f(x)P(x) EXP[f(x)]=xf(x)P(x)
这是当x有P产生,函数 f ( x ) f(x) f(x)作用于x时,f(x)的平均值。
对于连续性随机变量有
E X ∼ P [ f ( x ) ] = ∫ f ( x ) P ( x ) d x \mathbb{E}_{X \sim P} [f(x)]=\int f(x)P(x)dx EXP[f(x)]=f(x)P(x)dx
当我们在上下文中指明概率分布时,我们可以简写期望为 E x [ f ( x ) ] \mathbb{E}_x[f(x)] Ex[f(x)]。如果随机变量也明确指出,我们也可以省略随机变量: E [ f ( x ) ] \mathbb{E}[f(x)] E[f(x)]。默认着,我们假设 E [ ⋅ ] \mathbb{E}[\cdot] E[]表示对方括号内的所有随机变量的值求平均。类似的,当没有歧义时,方括号也可以省略。

期望是线性的,我们有
E X [ α f ( x ) + β g ( x ) ] = α E X [ f ( x ) ] + β E X [ g ( x ) ] \mathbb{E}_{X}[\alpha f(x)+\beta g(x)]=\alpha \mathbb{E}_{X}[ f(x)]+\beta \mathbb{E}_{X}[g(x)] EX[αf(x)+βg(x)]=αEX[f(x)]+βEX[g(x)]
其中 α \alpha α β \beta β不依赖于x
这是由期望的性质直接推导出来的。
假设X是离散型随机变量,我们有
E X [ α f ( x ) + β g ( x ) ] = ∑ x ( α f ( x ) + β g ( x ) ) P ( x ) E X [ α f ( x ) + β g ( x ) ] = ∑ x α f ( x ) P ( x ) + β g ( x ) P ( x ) \mathbb{E}_{X}[\alpha f(x)+\beta g(x)]=\sum_{x} (\alpha f(x)+\beta g(x))P(x)\\ \mathbb{E}_{X}[\alpha f(x)+\beta g(x)]=\sum_{x} \alpha f(x)P(x)+\beta g(x)P(x)\\ EX[αf(x)+βg(x)]=x(αf(x)+βg(x))P(x)EX[αf(x)+βg(x)]=xαf(x)P(x)+βg(x)P(x)
我们可以将求和符号 ∑ \sum 分配到每一项,得到:
E X [ α f ( x ) + β g ( x ) ] = α ∑ x f ( x ) P ( x ) + β ∑ x g ( x ) P ( x ) = α E X [ f ( x ) ] + β E X [ g ( x ) ] \mathbb{E}_{X}[\alpha f(x)+\beta g(x)]=\alpha \sum_{x} f(x)P(x)+ \beta\sum_{x} g(x)P(x)\\ =\alpha \mathbb{E}_{X}[ f(x)]+\beta \mathbb{E}_{X}[g(x)] EX[αf(x)+βg(x)]=αxf(x)P(x)+βxg(x)P(x)=αEX[f(x)]+βEX[g(x)]
方差(variance)是衡量随机变量或一组数据的离散程度的度量。它描述的是随机变量的波动程度。

对于随机变量X,它的方差定义为
V a r ( X ) = E [ ( x − E [ X ] ) 2 ] Var(X)=\mathbb{E}[(x-\mathbb{E}[X])^2] Var(X)=E[(xE[X])2]

类似的,方差也可以用来衡量当我们对X依据它的概率分布进行采样时,对于作用于随机变量X的函数 f ( x ) f(x) f(x)的函数值呈现多大的差异
V a r ( X ) = E [ f ( x ) − E [ f ( X ) ] ) 2 ] Var(X)=\mathbb{E}[f(x)-\mathbb{E}[f(X)])^2] Var(X)=E[f(x)E[f(X)])2]
如果方差很小,则 f ( x ) f(x) f(x)形成的簇(一组相似的数据点的集合。)比较接近它们的期望值。方差的平方根被称为标准差(stan-dard deviation)。

协方差(covariance)在某种意义上给出了两个变量之间的线性相关性的强度以及这些变量的尺度。对于两个随机变量 X X X Y Y Y,它们的协方差定义为:
C o v ( X , Y ) = E [ ( X − E [ X ] ) ( Y − E [ Y ] ) ] Cov(X, Y) = \mathbb{E}[(X - \mathbb{E}[X])(Y - \mathbb{E}[Y])] Cov(X,Y)=E[(XE[X])(YE[Y])]
这个公式的含义是:首先计算 X X X Y Y Y各自与其期望的差,然后将这两个差的乘积作为新的随机变量,最后计算这个新随机变量的期望。这个期望就是 X X X Y Y Y的协方差。

我们也可以表示为
C o v ( f ( x ) , g ( x ) ) = E [ ( f ( x ) − E [ f ( x ) ] ) ( g ( x ) − E [ g ( x ) ] ) ] Cov(f(x),g(x))=\mathbb{E}[(f(x)-\mathbb{E}[f(x)])(g(x)-\mathbb{E}[g(x)])] Cov(f(x),g(x))=E[(f(x)E[f(x)])(g(x)E[g(x)])]

协方差的值可以是正的、负的或零。正协方差表示 X X X Y Y Y倾向于同时增大或减小,负协方差表示 X X X Y Y Y倾向于在一个增大时另一个减小,协方差为零表示 X X X Y Y Y之间没有线性关系。

协方差的绝对值如果很大,则意味着变量值变化很大,并且它们同时距离各自的均值很远。

随机向量 x ∈ R n \mathbf{x} \in R^{n} xRn的协方差矩阵(covariance matrix)是一个 n × n n \times n n×n的对称矩阵,并且满足
C o v ( x ) i , j = C o v ( x i , x j ) Cov(\mathbf{x})_{i,j}=Cov(x_i,x_j) Cov(x)i,j=Cov(xi,xj)
协方差矩阵的对角元素是各个随机变量的方差
C o v ( x i , x i ) = V a r ( x i ) Cov(x_i,x_i)=Var(x_i) Cov(xi,xi)=Var(xi)
非对角元素是各对随机变量的协方差。这个矩阵提供了一种描述多个随机变量之间关系的方式。
如有问题,恳请指正文章来源地址https://www.toymoban.com/news/detail-764118.html

到了这里,关于深度学习-必备的数学知识-概率论4的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 数学模型在人工智能中的使用:统计学和概率论

    数学模型在人工智能中的使用:统计学和概率论 随着人工智能技术的发展,数学模型的重要性越来越突出。数学模型可以帮助人工智能

    2024年02月16日
    浏览(48)
  • 【知识存储】用于深度学习研究的 ☆ 概率论和数理统计☆ 基础理论知识,用时查阅,灵活运用,很基础很重要

    随机事件和概率 1.事件的关系与运算 (1) 子事件: A ⊂ B A subset B A ⊂ B ,若 A A A 发生,则 B B B 发生。 (2) 相等事件: A = B A = B A = B ,即 A ⊂ B A subset B A ⊂ B ,且 B ⊂ A B subset A B ⊂ A 。 (3) 和事件: A ⋃ B Abigcup B A ⋃ B (或 A + B A + B A + B ), A A A 与 B B B 中至少有一个发生

    2024年02月16日
    浏览(63)
  • <6>【深度学习 × PyTorch】概率论知识大汇总 | 实现模拟骰子的概率图像 | 互斥事件、随机变量 | 联合概率、条件概率、贝叶斯定理 | 附:Markdown 不等于符号、无穷符号

      人的一生中会有很多理想。短的叫念头,长的叫志向,坏的叫野心,好的叫愿望。理想就是希望,希望是生命的原动力!   🎯作者主页: 追光者♂🔥          🌸个人简介:   💖[1] 计算机专业硕士研究生💖   🌟[2] 2022年度博客之星人工智能领域TOP4🌟   🏅[3] 阿里

    2024年02月10日
    浏览(39)
  • 概率论与深度学习:从简单到复杂

    深度学习是一种人工智能技术,它旨在让计算机模仿人类的智能。概率论是数学的一个分支,它用于描述不确定性和随机性。深度学习和概率论之间的关系非常紧密,因为深度学习模型需要处理大量的随机数据,并且需要使用概率论来描述和优化这些模型。 在这篇文章中,我

    2024年04月24日
    浏览(36)
  • 概率论与机器学习:从朴素贝叶斯到深度学习

    概率论和机器学习是计算机科学和人工智能领域的基本概念。概率论是用于描述不确定性和随机性的数学框架,而机器学习则是利用数据来训练计算机程序以进行自动化决策的方法。这两个领域密切相连,因为机器学习算法通常需要使用概率论来描述和处理数据的不确定性。

    2024年02月01日
    浏览(43)
  • AI人工智能中的概率论与统计学原理与Python实战:35. Python实现量子计算与量子机器学习...

    量子计算和量子机器学习是人工智能领域的一个重要分支,它们利用量子物理现象来解决一些传统计算方法无法解决的问题。量子计算的核心是量子比特(qubit),它可以存储多种信息,而不是传统的二进制比特(bit)。量子机器学习则利用量子计算的优势,为机器学习问题提供更

    2024年04月14日
    浏览(59)
  • 高等数学:概率论(二)

    设随机实验E的样本空间为 Ω Omega Ω ,X为定义于样本空间 Ω Omega Ω 上的函数,对任意的 w ∈ Ω win Omega w ∈ Ω ,总存在唯一确定的的 X ( w ) X(w) X ( w ) 与之对应,称 X ( w ) X(w) X ( w ) 为随机变量。 随机变量的分布函数 设 X 为随机变量, 对任意的实数 x, 称函数 F ( x ) = P { X ⩽

    2024年02月09日
    浏览(52)
  • 人工智能教程(四):概率论入门

    目录 前言 TensorFlow 入门 SymPy 入门 概率论入门 前言 前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。 点击跳转到网站 在本系列的 上一篇文章 中,我们进一步讨论了矩阵和线性代数,并学习了用 JupyterLab 来运行 Python 代码。在本

    2024年02月03日
    浏览(69)
  • AI 人工智能之概率论基础(2)

    设试验 E 的样本空间为 S={e} ,而 X=X(e) , Y=Y(e) 是定义在 S={e} 上的两个随机变量成为由这两个随机变量组成的向量 (X(e),Y(e)) 为二维随机变量或者二维随机向量。 设 (X,Y) 为二维随机变量,对任意实数 x,y ,二元函数:  称为二维随机变量 (X,Y) 的分布函数,或者称为

    2024年02月05日
    浏览(54)
  • 概率论-条件数学期望(复习笔记自用)

    实际上,求条件期望就是在新的概率空间上进行计算,即 ,因此也继承了期望的所有性质 如果 ,则E(X)=Eg(Y) 使用全概率公式,可以容易得到证明 理解,找到共性 正态分布的优良性质:正态分布的条件分布仍为正态分布 公式的证明充分体现出微分法的优势 理解:对于固定的

    2024年02月08日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包