深度学习-必备的数学知识-概率论2

这篇具有很好参考价值的文章主要介绍了深度学习-必备的数学知识-概率论2。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度学习

必备的数学知识

概率论

在上一篇文章中,我带大家初略的了解了概率论是什么。这篇文章中我将为大家讲解概率论中的随机变量和概率分布。

随机变量

在概率论中,随机变量(random variable)是一个可以随机地取不同值的变量。一个随机变量是对可能的状态的描述,它的取值范围是事件的所有可能的状态。它必须伴随着概率分布来指定每个状态的可能性。随机变量可以是离散的,也可以是连续的,取决于它的值是否可以在一个连续的范围内变化。

离散型随机变量的例子有:掷骰子的结果,1到6的整数

连续型随机变量的例子有:一个人的体重,一个人的体重可以在一个连续的范围内取任何值。

概率分布

概率分布(probability distribution)用来描述随机变量在每一个可能取到的状态的可能性。换句话说,概率分布是描述随机变量可能的取值及其对应概率的函数。
对于离散型随机变量和连续型随机变量使用不同的方式描述。

概率质量函数

对于离散型随机变量的概率分布可以用概率质量函数描述(probability mass function,PMF)。我们通常使用大写字母P来描述概率质量函数。通常每一个随机变量都有着不同的概率密度函数,也就是说概率密度函数是不通用的。我们不通过函数名来推断所使用的概率密度函数,而是通过随机变量来推断。如 P ( x ) P(x) P(x) P ( y ) P(y) P(y)是不一样的。

x = x x=x x=x(前一个x是随机变量本身,后一个是随机变量的取值)的概率密度函数记作 P ( x ) P(x) P(x),通常我们明确写出随机变量的名称来避免混淆,如: P ( x = x ) P(x=x) P(x=x)。使用~符号表示随机变量遵循的概率密度函数,如:$x $ ~ P ( x ) P(x) P(x)

概率密度函数是将随机变量能取到的每个状态映射到随机变量取得该状态的概率,概率为1表示x=x是必然发生的,概率为0表示x=x是不可能发生。

如果一个函数P是随机变量的概率密度函数,则必须满足以下三个条件

  • 函数的定义域是随机变量所有可能的状态的集合
  • ∀ x ∈ x \forall x \in x xx, 0 ≤ P ( x ) ≤ 1 0\leq P(x) \leq 1 0P(x)1,必然发生的事概率为1,不存在比这概率还大的;必然不可能发生的事件的概率是0,不存在比这概率还小的。
  • ∑ x ∈ x P ( x ) = 1 \sum_{x \in x} P(x)=1 xxP(x)=1,随机变量的能取到的所有可能的状态的概率加起来等于1。这称为归一化(normalized)。

我们再拿出掷骰子这个例子。我们用随机变量x表示掷骰子的结果,它一共有6个不同的状态( x 1 , x 2 , . . , x 6 x_1,x_2,..,x_6 x1,x2,..,x6)。在理想情况下,x是均匀分布的,也就是它的每一个状态是等可能的。此时我们可以将x的PMF设为
P ( x = x i ) = 1 6 P(\texttt{x}=x_i)=\frac{1}{6} P(x=xi)=61
这个函数满足上述的条件,这很容易就可以看出来。

概率质量函数可以用于多个随机变量,如 P ( x = x , y = y ) P(x=x,y=y) P(x=x,y=y),它表示的是当x=x,y=y同时发生的概率,我们也可以简写为P(x,y)。这称为联合概率分布

概率密度函数

对于连续性随机变量的概率分布我们使用概率密度函数(probability density function,PDF)。概率密度函数 P ( x ) P(x) P(x)并没有直接给出特定状态的概率。这是因为连续性随机变量,它的可能的状态是无限多的,以至于取到某一个特定的状态的概率为0。概率密度函数 P ( x ) P(x) P(x)给出的是随机变量落在x附近无穷小的区间的概率。具体来说,如果Δx是一个很小的正数,那么X落在[x, x+Δx]内的概率近似等于p(x)Δx。

我们可以通过 P ( x ) P(x) P(x)对某个区间区间[a,b]求积分来获得x落在区间中的概率,
∫ a b P ( x ) d x \int_{a}^{b}P(x)dx abP(x)dx

概率密度函数需要满足以下条件:文章来源地址https://www.toymoban.com/news/detail-771608.html

  • 函数的定义域是随机变量所有可能的状态的集合
  • ∀ x ∈ x \forall x \in x xx, P ( x ) ≥ 0 P(x) \geq 0 P(x)0,PDF表示的是随机变量在某个特定值附近的概率密度,所有PDF值可以大于1/
  • ∫ P ( x ) d x = 1 \int P(x)dx=1 P(x)dx=1,随机变量x的任意可能的状态它必然会落到定义域中。这反映了所有可能事件的概率之和为1的事实。
    联合概率分布对于概率密度函数同样成立。对于多个随机变量,我们可以定义联合概率密度函数,它描述了这些随机变量同时取特定值的概率密度。

到了这里,关于深度学习-必备的数学知识-概率论2的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 数学模型在人工智能中的使用:统计学和概率论

    数学模型在人工智能中的使用:统计学和概率论 随着人工智能技术的发展,数学模型的重要性越来越突出。数学模型可以帮助人工智能

    2024年02月16日
    浏览(36)
  • 【知识存储】用于深度学习研究的 ☆ 概率论和数理统计☆ 基础理论知识,用时查阅,灵活运用,很基础很重要

    随机事件和概率 1.事件的关系与运算 (1) 子事件: A ⊂ B A subset B A ⊂ B ,若 A A A 发生,则 B B B 发生。 (2) 相等事件: A = B A = B A = B ,即 A ⊂ B A subset B A ⊂ B ,且 B ⊂ A B subset A B ⊂ A 。 (3) 和事件: A ⋃ B Abigcup B A ⋃ B (或 A + B A + B A + B ), A A A 与 B B B 中至少有一个发生

    2024年02月16日
    浏览(49)
  • <6>【深度学习 × PyTorch】概率论知识大汇总 | 实现模拟骰子的概率图像 | 互斥事件、随机变量 | 联合概率、条件概率、贝叶斯定理 | 附:Markdown 不等于符号、无穷符号

      人的一生中会有很多理想。短的叫念头,长的叫志向,坏的叫野心,好的叫愿望。理想就是希望,希望是生命的原动力!   🎯作者主页: 追光者♂🔥          🌸个人简介:   💖[1] 计算机专业硕士研究生💖   🌟[2] 2022年度博客之星人工智能领域TOP4🌟   🏅[3] 阿里

    2024年02月10日
    浏览(28)
  • 概率论与深度学习:从简单到复杂

    深度学习是一种人工智能技术,它旨在让计算机模仿人类的智能。概率论是数学的一个分支,它用于描述不确定性和随机性。深度学习和概率论之间的关系非常紧密,因为深度学习模型需要处理大量的随机数据,并且需要使用概率论来描述和优化这些模型。 在这篇文章中,我

    2024年04月24日
    浏览(26)
  • 概率论与机器学习:从朴素贝叶斯到深度学习

    概率论和机器学习是计算机科学和人工智能领域的基本概念。概率论是用于描述不确定性和随机性的数学框架,而机器学习则是利用数据来训练计算机程序以进行自动化决策的方法。这两个领域密切相连,因为机器学习算法通常需要使用概率论来描述和处理数据的不确定性。

    2024年02月01日
    浏览(33)
  • AI人工智能中的概率论与统计学原理与Python实战:35. Python实现量子计算与量子机器学习...

    量子计算和量子机器学习是人工智能领域的一个重要分支,它们利用量子物理现象来解决一些传统计算方法无法解决的问题。量子计算的核心是量子比特(qubit),它可以存储多种信息,而不是传统的二进制比特(bit)。量子机器学习则利用量子计算的优势,为机器学习问题提供更

    2024年04月14日
    浏览(49)
  • 高等数学:概率论(二)

    设随机实验E的样本空间为 Ω Omega Ω ,X为定义于样本空间 Ω Omega Ω 上的函数,对任意的 w ∈ Ω win Omega w ∈ Ω ,总存在唯一确定的的 X ( w ) X(w) X ( w ) 与之对应,称 X ( w ) X(w) X ( w ) 为随机变量。 随机变量的分布函数 设 X 为随机变量, 对任意的实数 x, 称函数 F ( x ) = P { X ⩽

    2024年02月09日
    浏览(40)
  • 人工智能教程(四):概率论入门

    目录 前言 TensorFlow 入门 SymPy 入门 概率论入门 前言 前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。 点击跳转到网站 在本系列的 上一篇文章 中,我们进一步讨论了矩阵和线性代数,并学习了用 JupyterLab 来运行 Python 代码。在本

    2024年02月03日
    浏览(56)
  • AI 人工智能之概率论基础(2)

    设试验 E 的样本空间为 S={e} ,而 X=X(e) , Y=Y(e) 是定义在 S={e} 上的两个随机变量成为由这两个随机变量组成的向量 (X(e),Y(e)) 为二维随机变量或者二维随机向量。 设 (X,Y) 为二维随机变量,对任意实数 x,y ,二元函数:  称为二维随机变量 (X,Y) 的分布函数,或者称为

    2024年02月05日
    浏览(40)
  • 概率论-条件数学期望(复习笔记自用)

    实际上,求条件期望就是在新的概率空间上进行计算,即 ,因此也继承了期望的所有性质 如果 ,则E(X)=Eg(Y) 使用全概率公式,可以容易得到证明 理解,找到共性 正态分布的优良性质:正态分布的条件分布仍为正态分布 公式的证明充分体现出微分法的优势 理解:对于固定的

    2024年02月08日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包