【机器学习】 贝叶斯理论的变分推理

这篇具有很好参考价值的文章主要介绍了【机器学习】 贝叶斯理论的变分推理。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

许志永

一、说明

        贝叶斯原理,站在概率角度上似乎容易解释,但站在函数立场上就不那么容易了;然而,在高端数学模型中,必须要在函数和集合立场上有一套完整的概念,其迭代和运算才能有坚定的理论基础。

二、贝叶斯概念的难处

2.1 并不简单

         贝叶斯定理看起来天真地简单。但是,分母是在 z 上积分的分区函数,就不简单了。一般来说,它不能通过分析来解决。即使我们可以对已知分布族的先验和可能性进行建模,后验 p(z|x)总体上仍然难以解决。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        让我们用一个简单的例子来演示它的复杂性。我们使用多项式分布来选择 K 正态分布之一。然后,我们使用选定的正态分布对 xi 进行采样。如图所示,后部的复杂性已经无法控制。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

从源代码修改

另一种方法是近似解。在 ML 中,有两种主要的近似方法。它们是采样和变分推理。在本文中,我们将讨论后者。

变分推理中,给定观测值 X,we 为潜在变量 z 构建概率模型 q,即 q ≈pz|X)。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

上面的边际 pX) 可以计算为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

在变分推理中,我们避免计算边际 pX)。这种分区功能通常很讨厌。相反,我们选择一些易于处理的分布族q来近似p。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

我们将 q 与样本数据拟合,以了解分布参数 θ。当我们为 q 做出选择时,我们确保它易于操作。例如,它的期望和归一化因子可以直接从分布参数计算。由于这个选择,我们可以用 q 代替 p 进行任何推断或分析。

2.2 概述

        虽然这个概念听起来很简单,但细节却并非如此。在本节中,我们将详细介绍著名的主题建模算法(称为潜在狄利克雷分配(LDA)的主要步骤。我们希望这能为您提供一个顶级概述,然后再深入研究细节和证明。

        以下是 LDA 的图形模型。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        该模型包含变量 α、β、θ、z 和 w。不要担心变量的含义,因为它在我们的上下文中并不重要。 w 是我们的观察结果。 θ 和 z 是我们想要发现的隐藏变量(潜在因子)。 α 和 β 在我们的讨论中是固定且已知的。图形模型中的箭头表示依赖性。例如,w 仅取决于 z 和 β。因此,p(w|α, β, θ, z) 可以简化为 p(w|z, β)。

        与许多概率模型一样,我们感兴趣的是在给定已知输入的情况下对联合分布 p(w, θ, z |α, β) 进行建模。我们应用链式法则来扩展联合概率,使其仅由单个变量的分布组成。然后,我们应用图中的依赖关系来简化每一项。我们得到:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        基于主题建模问题,θw可以用狄利克雷分布建模,z可以用多项式分布建模。我们的目标是用 近似所有隐藏变量 θ 和 z

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        我们定义了一个目标来最小化 p 和 q 之间的差异。这可以通过最大化下面的ELBO(证据下限)来完成。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        即使不是那么明显,当 p 和 q 相同时,ELBO 会最大化。然而,联合概率qθ, z)仍然很难建模。我们将它分解并近似为 q(θ z) ≈ q(θ) qz)。即使它可能不完美,经验结果通常也是好的。 z 由多个变量 z₁、z₂、z₃、... 组成。并且可以分解为单个组件,如 Qz₁Qz₂)...因此,的最终模型为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        根据主题建模问题,我们可以对具有狄利克雷分布的 θ 和具有多项分布的 zi 进行建模,并使用 γ 和 φi 对相应的分布参数进行建模。 这是一个伟大的里程碑,因为我们设法用单个隐藏变量的分布对复杂模型进行建模,并为每个隐藏变量选择一个可处理的分布。剩下的问题是如何学习γ和φi。让我们回到ELBO目标:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        在许多 ML 问题中,为了有效地对问题进行建模,隐藏变量通常相互依赖。我们无法一步优化它们。相反,我们一次优化一个变量,同时保持其他变量固定。因此,我们轮流旋转隐藏变量以交替步骤进行优化,直到解决方案收敛。在 LDA 中,z 和 θ 分别在下面的步骤 5 和 6 中进行优化。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        剩下的主要问题是如何在修复其他参数的同时优化变分参数。在每次迭代中,目标隐变量 z的最佳分布为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        分子对除 zk 之外的所有隐藏变量进行积分。

        听起来我们正在重新引入邪恶的双胞胎:正常化因素。尽管如此,这不会成为问题。我们选择 q 作为可处理的分布。它们的期望和归一化可以从分布参数分析中得出。

        等式中的分子值得更多解释。对于正则期望 E[f(x₁, x₂, x₃)],我们评估所有变量的 f

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        但是对于我们的分子,我们省略了目标变量。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

即,

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

-k 是以下的缩写:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        但是,我们不会在计算期望时执行积分。我们对 qi 的选择使我们能够简化 ELBO 最大化中的许多计算。让我们更详细地介绍一下。

在 LDA 中,q 近似为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        其中 θ  z 分别由 γ 和 φ 建模。我们的计算涉及:

  1. 将 ELBO 扩展到单个变量
  2. 计算预期值
  3. 优化 ELBO

        展开 ELBO

        使用图形模型和链式规则,我们将ELBO扩展为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        计算预期值

        我们不想用细节让您不知所措。因此,我们仅演示如何仅计算第一个项的期望。首先,θ 由参数为 α 的狄利克雷分布建模。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

接下来,我们将计算其期望值 w.r.t. q

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        这里没有证明,E[log θi] 可以直接从γ计算出来。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        我们深思熟虑地选择 q,通常使用基于问题陈述中隐藏变量属性的已知分布。数学家已经分析解决了这些期望表达式。我们甚至不担心归一化因素。

        优化 ELBO

        在我们扩展 ELBO 中所有剩余的项后,我们可以将其区分为 w.r.t. γiγ 中的第 i 个参数)和φ ni(第 n个单词中的第 i参数)。 通过将导数设置为零,我们找到了γi的最佳解:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

φni 的最佳解决方案将是:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

由于γφ ni之间存在依赖关系,我们将以交替的步骤迭代优化参数。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

Source

以下是概述。对于其余的文章,我们将介绍变分推理、证明和详细示例中的一些主要设计决策。

三、KL-背离

        为了找到q,我们将问题变成优化问题。我们计算 q 的最佳参数,以最小化目标 p* 的反向 KL 发散。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        如前所述,KL-发散不是对称的。q的最优解只有在q复杂到足以对p进行建模时,KLp,q)和KLq,p)的最优解才会相同。这就提出了一个重要的问题,即当KL-发散KL(p,q)与p的期望更匹配时,为什么使用反向KL-散度KLq,p)。例如,当使用高斯分布对蓝色双峰分布进行建模时,反向KL散度解将是图中的红色曲线(b)或(c)。两种解决方案仅涵盖一种模式。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        但是,(a) 中的 KL 散度解将覆盖大部分原始分布,其均值将与 p* 的均值匹配。

      矩(包括均值和方差)描述了分布。KL-散度解是力矩投影(m-投影)。它将 q 与 p 的矩匹配。如果我们匹配所有矩参数,它们将完全相同。如果 q 使用指数分布族,我们可以使用 KL-散度将 q 的矩与 p* 精确匹配。这里没有太多解释,他们预期的足够统计数据将匹配。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        (即 p=q)反向KL散度是一种信息投影(i-投影),不一定产生正确的时刻。由此判断,我们可以得出结论,m投影是优越的。但是,如果一个机制可以完全匹配p*,那么这样的机制也需要完全理解p*,这首先是困难的。所以听起来并不像它可能的那样好。

        在变分推理中,使用 i 投影代替。为了证明我们的选择是合理的,让我们提出一些我们想要遵循的约束。首先,我们要避免分区函数的计算,计算困难。其次,我们希望避免计算pz),因为我们需要分区函数来计算它。因此,让我们为 p 定义一个新术语,即非规范化分布,它将分区函数分开。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        让我们将新定义代入反向KL背离。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        Z 不会改变 w.r.t. q。当我们最小化反向KL发散时,可以忽略它。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        这是个好消息。在图形模型中,非规范化的 是使用因子明确定义的。它们易于计算,并且 R.H.S. 中的目标不需要任何规范化。使用反向KL散度是一个很好的折衷方案,即使在某些情况下它可能并不完美。对于 q 与 p* 相比过于简单,结果可能会造成伤害。然而,变异推断通常显示出良好的经验结果。接下来,让我们看看如何优化反向KL发散。

四、证据下限

        让我们在下面介绍凸函数 和称为证据下界 (ELBO) 的项的詹森不等式

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能
该图源自维基百科

        ELBO 实际上是在最后一步中对凹函数应用詹森不等式后的证据的下限(log px))。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

从源代码修改

        ELBO与KL背离有关:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

从源代码修改

        现在让 Z 成为边际 px)。不要将 Z 与隐藏变量 z 混淆。不幸的是,我们需要用大写字母重载符号,因为 Z 在其他文献中经常使用。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        Z 不会改变我们对 q 的建模方式。所以从优化 q 的角度来看,log Z 是一个常数。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        因此,最小化KL发散度将与最大化ELBO相同。直观地说,给定任何分布 q,ELBO 始终是 log Z 的下限。但是,当 q 等于 p* 时,差距减小到零。因此,最大化ELBO将KL发散度降低到零。

通过最大化证据下限ELBO,我们最小化了两个数据分布的差异。

        让我们将 ELBO 概括为

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

其中 Z 现在是一般归一化因子。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

同样,如上所示,最大化ELBO与最小化KL散度相同,因为Z不会因我们对q进行建模的方式而变化。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

这比KL背离带来了一个主要优势。ELBO 适用于归一化和非归一化分布,无需计算常规 KL 散度定义所需的 Z

ELBO 和图形模型(可选)

让我们演示如何使用图形模型在 ELBO 中计算非归一化分布。联合概率分布可以通过马尔可夫随机场建模为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

我们将ELBO中的非规范化p替换为上面φ因子。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

因此,最小化KL发散等效于最小化吉布斯自由能。我们称之为自由能,因为它是我们可以通过改变配置来操纵的能量的一部分。如果我们使用能量模型扩展模型,则可以进一步扩展此模型。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

五、平均场变分推理

(信用:证明和方程起源于这里。

        不要太快开心。我们错过了变分推理中重要而困难的一步。q的选择是什么?当 q 包含多个变量时,即 q(z) = q(z₁, z₂, z₃, ...),这可能非常困难。为了进一步降低复杂性,平均场变分推理做出了一个大胆的假设,即分布可以分解为分布,每个分布仅涉及一个隐藏变量。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

然后,我们根据问题使用可处理的分布对每个分布进行建模。我们选择的分布将易于分析。例如,如果 z₁ 是多项式,我们使用多项式分布对其进行建模。如前所述,许多隐藏变量相互依赖。因此,我们将使用坐标下降来优化它。我们将隐藏变量分组为每个包含自变量的组。我们交替旋转和优化每组变量,直到解决方案收敛。

所以最后一个难题是如何在每个迭代步骤中优化qizi)。我们将首先介绍几个概念。当 x 不依赖于 z 时,概率链式规则可以写成如下:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

其次,由于我们将qz)建模为独立分量qizi),我们可以将熵建模为单个熵的总和。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

有了这些信息,我们扩展了ELBO

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

zj 在 中的排序是非常随意的。在下面的等式中,我们使 zk 成为最后一个元素。并将与 z 无关的所有内容分组到一个常量中。因此,等式变为

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

我们进一步删除与zk无关的项,然后以积分形式表示。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

我们取导数并将其设置为零以找到优化的分布 qzk)。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

最佳解决方案是

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

所有不断吸收并转化为Z'。我们可以用贝叶定理扩展分子。同样,相应的分母将与 zk 无关,因此被吸收为归一化因子。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

这与我们在概述部分得到的等式相同。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

还有其他方法可以找到优化的 q。让我们把所有内容都放在MRF的上下文中。如前所述,我们的目标是

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

让我们用 qx) 将其扩展为 q(x₁) qx₂) qx₃ ...

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

这个方程可以用类似于MAP推理的线性代数来解决。但是我们不会在这里详细说明解决方案。

六、回顾

        我们知道分布 p 的方程。但是分析或操纵它是令人讨厌的。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        因此,根据观察结果,我们将为每个单独的模型参数使用可处理的 qi 对 p 进行建模。例如

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        为了最小化 p 和 q 之间的差异,我们最大化下面的 ELBO。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

在每个迭代步骤中,相应模型参数 zj 的最佳解为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

由于每个q都被选择为易于处理的,因此可以通过分析方式找到期望值或归一化因子(如果需要),并且非常简单。

七、示例

(图片来源:这个例子和一些方程都来自这里。

        让我们用一个例子来演示变化推断。考虑下面的分布 px):

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        其中μ(平均值)和τ(精度)分别由高斯分布和伽马分布建模。因此,让我们用 q(μ, τ) 近似 p(x, μ, τ)。通过方差推断,我们可以从数据中学习这两个参数。每次迭代中 μ  τ 的最优值将满足

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        因此,让我们首先用链式规则扩展 px, μ, τ),然后从问题定义中扩展 的定义来评估它。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        我们的下一个任务是使用下面的平均场变分推理通过 q 近似 p

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        现在,应用平均场变化推断,我们得到:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        对数 q 是二次的。所以q是高斯分布的。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        我们的下一个任务是将上面的方程与高斯定义进行匹配,以找到参数 μ 和 τ τ ⁻¹ = σ²)。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        因此,μ 和 τ 是:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        如前所述,计算归一化 Z 通常很困难,但对于这些众所周知的分布来说并非如此。如果需要,可以通过分布参数计算归一化因子。我们需要专注于查找这些参数。

        我们在计算日志 qτ) 时重复相同的过程。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        τ 是伽马分布,因为上面的分布仅依赖于 τ 和 对数 τ 伽马分布的相应参数 a 和 b 为:

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

        现在,我们有两个可处理的分布,我们希望找到它们的参数μτ

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

同样,让我们将一些术语重写为期望表单。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

如前所述,数学已经通过分析解决了这些期望项。我们甚至懒得计算任何归一化因子。

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

μ a 可以立即解决。但是 τ 依赖于 bb 依赖于 τ

【机器学习】 贝叶斯理论的变分推理,基础理论,人工智能

因此,我们将交替步骤迭代地解决它们。

  1. 将 τn 初始化为某个任意值。
  2. 用上面的等式求解 bn
  3. 用上面的方程求解 τn
  4. 重复最后两个步骤,直到值收敛。

八、抽样与变分推理

        抽样方法存在一个主要缺点。我们不知道目前的采样解决方案与实际情况有多远。我们希望,如果我们进行足够的采样,解决方案是接近的,但没有定量测量。为了测量这样的距离,我们需要一个目标函数。由于变分推理被表述为优化问题,因此我们确实对进展有一定的指示。但是,变分推理近似于解,而不是找到确切的解。事实上,我们的解决方案不太可能是准确的。文章来源地址https://www.toymoban.com/news/detail-635947.html

到了这里,关于【机器学习】 贝叶斯理论的变分推理的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 相机标定-机器视觉基础(理论推导、Halcon和OpenCV相机标定)

             相机标定是获得目标工件精准坐标信息的基础。首先,必须进行相机内参标定,构建一个模型消除图像畸变;其次,需要对相机和机器人的映射关系进行手眼标定,构建一个模型将图像坐标系上的点映射到世界坐标系。主要分为背景知识、相机内外参模型推导、

    2023年04月21日
    浏览(45)
  • fMRI基础理论知识学习

    时隔多年,再次上线,重新经营csdn。自读研以来,不是干饭就是摆烂,实在颓废,能重新开始写博客,已然不易。在这里立下flag,争取以后每周都能写点什么东西,一来锻炼文笔,二来记录学习历程 我的研究方向与功能磁共振成像fMRI有关,此前从未接触过该领域,完全是从

    2024年02月09日
    浏览(42)
  • AUTOSAR - CANTP - 学习一 :理论基础

    目录 1、概述 2、名词缩写 2.1、前缀含义 2.2、协议数据缩写 3、帧类别

    2024年02月03日
    浏览(40)
  • 生成学习全景:从基础理论到GANs技术实战

    本文全面探讨了生成学习的理论与实践,包括对生成学习与判别学习的比较、详细解析GANs、VAEs及自回归模型的工作原理与结构,并通过实战案例展示了GAN模型在PyTorch中的实现。 关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,

    2024年01月18日
    浏览(36)
  • 音视频学习—音视频理论基础(2)

      音频是一种模拟信号,它是由声波转化而来的电信号。声波是通过气体、液体或固体传播的机械波,代表了声音的震动。在录制过程中,声音被转换成电信号,然后被储存在数字格式中。   声音的三要素是频率、振幅和波形   频率是指声波的振动次数,通常使用赫

    2024年04月29日
    浏览(41)
  • 计算机视觉与深度学习 | 视觉惯性SLAM的基础理论

    ===================================================== github:https://github.com/MichaelBeechan CSDN:https://blog.csdn.net/u011344545 ===================================================== 计算机视觉与深度学习 | SLAM国内外研究现状

    2024年02月07日
    浏览(44)
  • 【知识存储】用于深度学习研究的 ☆ 概率论和数理统计☆ 基础理论知识,用时查阅,灵活运用,很基础很重要

    随机事件和概率 1.事件的关系与运算 (1) 子事件: A ⊂ B A subset B A ⊂ B ,若 A A A 发生,则 B B B 发生。 (2) 相等事件: A = B A = B A = B ,即 A ⊂ B A subset B A ⊂ B ,且 B ⊂ A B subset A B ⊂ A 。 (3) 和事件: A ⋃ B Abigcup B A ⋃ B (或 A + B A + B A + B ), A A A 与 B B B 中至少有一个发生

    2024年02月16日
    浏览(61)
  • 【自学记录】【Pytorch2.0深度学习从零开始学 王晓华】第四章 深度学习的理论基础

    遇到的疑问: 1、对神经网络前向计算中,关于系数矩阵W的讨论。 上一章讲到了层结构是【out,in】,所以我觉得在计算Y=WX+b的时候,W矩阵也应该是【out,in】的形状。但是该代码(或者正规代码实现流程)不是的,他是一个这样的结构: 所以,W矩阵还是【in,out】结构,a1=X1 W

    2024年04月09日
    浏览(54)
  • 分布式理论基础:BASE理论

    BASE 是指基本可用(Basically Available)、软状态( Soft State)、最终一致性( Eventual Consistency),核心思想是即使无法做到强一致性(CAP 的一致性就是强一致性),但应用可以采用适合的方式达到最终一致性。 分布式系统在出现故障时,允许损失部分可用性,即保证核心可用。

    2024年02月04日
    浏览(43)
  • 深度学习·理论篇(2023版)·第002篇深度学习和计算机视觉中的基础数学知识01:线性变换的定义+基于角度的线性变换案例(坐标变换)+点积和投影+矩阵乘法的几何意义+图形化精讲

    💕 恭喜本博客浏览量达到两百万,CSDN内容合伙人,CSDN人工智能领域实力新星~ 🧡 本文章为2021版本迭代更新版本,在结合有效知识的基础上对文章进行合理的增加,使得整个文章时刻顺应时代需要 🧡 本专栏将通过系统的深度学习实例,从可解释性的角度对深度学习的原理

    2023年04月08日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包