深度学习-必备的数学知识-概率论3

这篇具有很好参考价值的文章主要介绍了深度学习-必备的数学知识-概率论3。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度学习

必备的数学知识

概率论

我们将接着上一篇文章继续讲解。

条件概率

大家还记得上一篇文章的提到的联合概率分布吗?定义在一组变量的联合概率分布的子集上的概率分布被称为边缘概率分布(marginal probability distribution)。
对于离散型随机变量x和y,如果我们有 P ( x , y ) P(x,y) P(x,y),则可以根据以下求和法则(sum rule)来计算 P ( x ) P(x) P(x)
∀ x ∈ x , P ( x = x ) = ∑ y P ( x = x , y = y ) \forall x \in x,P(x=x)=\sum_{y}P(x=x,y=y) xx,P(x=x)=yP(x=x,y=y)
例如,假设我们有两个离散随机变量 x x x y y y,它们的可能值分别为 x = 1 , 2 x = {1, 2} x=1,2 y = a , b y = {a, b} y=a,b。假设我们知道以下联合概率:

  • P ( x = 1 , y = a ) = 0.1 P(x=1, y=a) = 0.1 P(x=1,y=a)=0.1

  • P ( x = 1 , y = b ) = 0.2 P(x=1, y=b) = 0.2 P(x=1,y=b)=0.2

  • P ( x = 2 , y = a ) = 0.3 P(x=2, y=a) = 0.3 P(x=2,y=a)=0.3

  • P ( x = 2 , y = b ) = 0.4 P(x=2, y=b) = 0.4 P(x=2,y=b)=0.4
    那么我们可以通过对所有可能的 y y y值求和来计算 x x x取特定值的概率:

  • P ( x = 1 ) = P ( x = 1 , y = a ) + P ( x = 1 , y = b ) = 0.1 + 0.2 = 0.3 P(x=1) = P(x=1, y=a) + P(x=1, y=b) = 0.1 + 0.2 = 0.3 P(x=1)=P(x=1,y=a)+P(x=1,y=b)=0.1+0.2=0.3

  • P ( x = 2 ) = P ( x = 2 , y = a ) + P ( x = 2 , y = b ) = 0.3 + 0.4 = 0.7 P(x=2) = P(x=2, y=a) + P(x=2, y=b) = 0.3 + 0.4 = 0.7 P(x=2)=P(x=2,y=a)+P(x=2,y=b)=0.3+0.4=0.7

这就是如何使用这个公式来计算概率的一个例子。
对于连续性随机变量,通过对联合概率求积分来计算 P ( x ) P(x) P(x)
P ( x ) = ∫ P ( x , y ) d y P(x)=\int P(x,y)dy P(x)=P(x,y)dy

条件概率

条件概率指的是某件事在给定的其他事件发生时出现的概率。我们将当x=x时,y=y发生的概率记作 P ( y = y ∣ x = x ) P(y=y|x=x) P(y=yx=x)。条件概率可以通过以下公式计算
P ( y = y ∣ x = x ) = P ( y = y , x = x ) P ( x = x ) P(y=y|x=x)=\frac{P(y=y,x=x)}{P(x=x)} P(y=yx=x)=P(x=x)P(y=y,x=x)
需要注意的是,条件概率只有在 P ( x = x ) > 0 P(x=x)>0 P(x=x)>0时才有定义,也就是说,我们不能计算在某个肯定不会发生的事件的条件下另一事件发生的概率

注意条件概率说的不是某件事发生后会发生什么。假定一个人拿着车钥匙出门,那么他开车的概率很高,但是让一个人拿车钥匙他的出行方式不会改变。

条件概率的链式法则

概率的链式法则(chain rule)(也称为乘法法则)是一种用于计算多个随机变量的联合概率的方法。对于两个随机变量 x x x y y y,链式法则可以写作:

P ( x = x , y = y ) = P ( x = x ) ⋅ P ( y = y ∣ x = x ) P(x=x, y=y) = P(x=x) \cdot P(y=y|x=x) P(x=x,y=y)=P(x=x)P(y=yx=x)

这个公式表示 x = x x=x x=x y = y y=y y=y同时发生的概率等于 x = x x=x x=x发生的概率乘以在 x = x x=x x=x的条件下 y = y y=y y=y发生的概率。

相信大家已经看出来了,这是从关系概率的公式推导而来的。
P ( y = y ∣ x = x ) = P ( y = y , x = x ) P ( x = x ) P ( x = x ) ⋅ P ( y = y ∣ x = x ) = P ( y = y , x = x ) P ( x = x ) ⋅ P ( x = x ) P ( y = y , x = x ) = P ( x = x ) ⋅ P ( y = y ∣ x = x ) P(y=y|x=x)=\frac{P(y=y,x=x)}{P(x=x)}\\ P(x=x) \cdot P(y=y|x=x)=\frac{P(y=y,x=x)}{P(x=x)} \cdot P(x=x)\\ P(y=y,x=x)= P(x=x) \cdot P(y=y|x=x) P(y=yx=x)=P(x=x)P(y=y,x=x)P(x=x)P(y=yx=x)=P(x=x)P(y=y,x=x)P(x=x)P(y=y,x=x)=P(x=x)P(y=yx=x)

链式法则可以扩展到更多的随机变量
P ( x ( 1 ) , x ( 2 ) , . . . , x ( n ) ) = P ( x 1 ) ∏ i n P ( x ( i ) ∣ x 1 , . . . , x ( i − 1 ) ) P(x^{(1)},x^{(2)},...,x^{(n)})=P(x^{1})\prod^{n}_{i}P(x^{(i)}|x^{1},...,x^{(i-1)}) P(x(1),x(2),...,x(n))=P(x1)inP(x(i)x1,...,x(i1))

独立性和条件独立性

我们称两个随机变量相互独立的(independent),这意味着它的联合概率分布等于它们各自的概率分布的乘积,知道 x x x的值并不会改变 y y y的概率分布,反之亦然。
∀ x ∈ x , y ∈ y P ( x = x , y = y ) = P ( x = x ) ⋅ P ( y = y ) \forall x \in x,y \in y P(x=x,y=y)=P(x=x) \cdot P(y=y) xx,yyP(x=x,y=y)=P(x=x)P(y=y)

如果在给定随机变量z=z的条件下,随机变量x和y是独立的,我们就说x和y在z=z的条件下是条件独立的conditionally independent)。换句话说,对于x和y的条件概率分布对于z的每一个值都可以写成乘积的形式。用公式表示为:
∀ x ∈ X , y ∈ Y , z ∈ Z , P ( X = x , Y = y ∣ Z = z ) = P ( X = x ∣ Z = z ) ⋅ P ( Y = y ∣ Z = z ) \forall x \in X, y \in Y, z \in Z, P(X=x, Y=y|Z=z) = P(X=x|Z=z) \cdot P(Y=y|Z=z) xX,yY,zZ,P(X=x,Y=yZ=z)=P(X=xZ=z)P(Y=yZ=z)文章来源地址https://www.toymoban.com/news/detail-773354.html

到了这里,关于深度学习-必备的数学知识-概率论3的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 数学模型在人工智能中的使用:统计学和概率论

    数学模型在人工智能中的使用:统计学和概率论 随着人工智能技术的发展,数学模型的重要性越来越突出。数学模型可以帮助人工智能

    2024年02月16日
    浏览(48)
  • 【知识存储】用于深度学习研究的 ☆ 概率论和数理统计☆ 基础理论知识,用时查阅,灵活运用,很基础很重要

    随机事件和概率 1.事件的关系与运算 (1) 子事件: A ⊂ B A subset B A ⊂ B ,若 A A A 发生,则 B B B 发生。 (2) 相等事件: A = B A = B A = B ,即 A ⊂ B A subset B A ⊂ B ,且 B ⊂ A B subset A B ⊂ A 。 (3) 和事件: A ⋃ B Abigcup B A ⋃ B (或 A + B A + B A + B ), A A A 与 B B B 中至少有一个发生

    2024年02月16日
    浏览(63)
  • <6>【深度学习 × PyTorch】概率论知识大汇总 | 实现模拟骰子的概率图像 | 互斥事件、随机变量 | 联合概率、条件概率、贝叶斯定理 | 附:Markdown 不等于符号、无穷符号

      人的一生中会有很多理想。短的叫念头,长的叫志向,坏的叫野心,好的叫愿望。理想就是希望,希望是生命的原动力!   🎯作者主页: 追光者♂🔥          🌸个人简介:   💖[1] 计算机专业硕士研究生💖   🌟[2] 2022年度博客之星人工智能领域TOP4🌟   🏅[3] 阿里

    2024年02月10日
    浏览(39)
  • 概率论与深度学习:从简单到复杂

    深度学习是一种人工智能技术,它旨在让计算机模仿人类的智能。概率论是数学的一个分支,它用于描述不确定性和随机性。深度学习和概率论之间的关系非常紧密,因为深度学习模型需要处理大量的随机数据,并且需要使用概率论来描述和优化这些模型。 在这篇文章中,我

    2024年04月24日
    浏览(36)
  • 概率论与机器学习:从朴素贝叶斯到深度学习

    概率论和机器学习是计算机科学和人工智能领域的基本概念。概率论是用于描述不确定性和随机性的数学框架,而机器学习则是利用数据来训练计算机程序以进行自动化决策的方法。这两个领域密切相连,因为机器学习算法通常需要使用概率论来描述和处理数据的不确定性。

    2024年02月01日
    浏览(43)
  • AI人工智能中的概率论与统计学原理与Python实战:35. Python实现量子计算与量子机器学习...

    量子计算和量子机器学习是人工智能领域的一个重要分支,它们利用量子物理现象来解决一些传统计算方法无法解决的问题。量子计算的核心是量子比特(qubit),它可以存储多种信息,而不是传统的二进制比特(bit)。量子机器学习则利用量子计算的优势,为机器学习问题提供更

    2024年04月14日
    浏览(59)
  • 高等数学:概率论(二)

    设随机实验E的样本空间为 Ω Omega Ω ,X为定义于样本空间 Ω Omega Ω 上的函数,对任意的 w ∈ Ω win Omega w ∈ Ω ,总存在唯一确定的的 X ( w ) X(w) X ( w ) 与之对应,称 X ( w ) X(w) X ( w ) 为随机变量。 随机变量的分布函数 设 X 为随机变量, 对任意的实数 x, 称函数 F ( x ) = P { X ⩽

    2024年02月09日
    浏览(52)
  • 人工智能教程(四):概率论入门

    目录 前言 TensorFlow 入门 SymPy 入门 概率论入门 前言 前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。 点击跳转到网站 在本系列的 上一篇文章 中,我们进一步讨论了矩阵和线性代数,并学习了用 JupyterLab 来运行 Python 代码。在本

    2024年02月03日
    浏览(69)
  • AI 人工智能之概率论基础(2)

    设试验 E 的样本空间为 S={e} ,而 X=X(e) , Y=Y(e) 是定义在 S={e} 上的两个随机变量成为由这两个随机变量组成的向量 (X(e),Y(e)) 为二维随机变量或者二维随机向量。 设 (X,Y) 为二维随机变量,对任意实数 x,y ,二元函数:  称为二维随机变量 (X,Y) 的分布函数,或者称为

    2024年02月05日
    浏览(54)
  • 概率论-条件数学期望(复习笔记自用)

    实际上,求条件期望就是在新的概率空间上进行计算,即 ,因此也继承了期望的所有性质 如果 ,则E(X)=Eg(Y) 使用全概率公式,可以容易得到证明 理解,找到共性 正态分布的优良性质:正态分布的条件分布仍为正态分布 公式的证明充分体现出微分法的优势 理解:对于固定的

    2024年02月08日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包