【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA)

这篇具有很好参考价值的文章主要介绍了【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、说明

        在机器学习 (ML) 中,一些最重要的线性代数概念是奇异值分解 (SVD) 和主成分分析 (PCA)。收集到所有原始数据后,我们如何发现结构?例如,通过过去 6 天的利率,我们能否了解其构成以发现趋势?

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        对于高维原始数据,这变得更加困难。这就像大海捞针。SVD允许我们提取和解开信息。在本文中,我们将详细介绍 SVD 和 PCA。我们假设您具有基本的线性代数知识,包括秩和特征向量。如果您在阅读本文时遇到困难,我建议您先刷新这些概念。在文章的最后,我们将回答上面的利率示例中的一些问题。本文还包含可选部分。请根据您的兴趣水平随意跳过它。

二、误解(初学者可选)

        我意识到非初学者可能会问的一些常见问题。让我先谈谈房间里的大象。PCA尺寸是否减小?PCA减少了尺寸,但它远不止于此。我喜欢 Wiki 的描述(但如果你不知道 PCA,这只是胡言乱语):

主成分分析 (PCA) 是一种统计过程,它使用正交变换将一组可能相关的变量(每个实体都具有各种数值)的观测值转换为一组线性不相关的变量值,称为主成分。

        从简化的角度来看,PCA 将数据线性转换为彼此不相关的新属性。对于ML,将PCA定位为特征提取可能使我们能够比降维更好地探索其潜力。

        SVD 和 PCA 有什么区别?SVD 为您提供了将矩阵对角化为易于操作和分析的特殊矩阵的整个九码。它为将数据解开为独立组件奠定了基础。PCA 跳过不太重要的组件。显然,我们可以使用 SVD 通过截断原始 SVD 矩阵中不太重要的基向量来查找 PCA。

四、矩阵对角化

        在关于特征值和特征向量的文章中,我们描述了一种将 n × n 方阵 A 分解为

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

例如

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        如果 A 是方阵,A 具有 n 个线性独立的特征向量,则矩阵可以对角化。现在,是时候使用 SVD 为所有矩阵开发解决方案了。

五、奇异向量和奇异值

        矩阵AATATA在线性代数中非常特殊。考虑任何m×n矩阵A,我们可以将其与AT相乘,分别形成AATATA。这些矩阵是

  • 对称
  • 广场
  • 至少为正半定(特征值为零或正),
  • 两个矩阵具有相同的正特征值,并且
  • 两者都具有与 A 相同的等级 r

        此外,我们在 ML 中经常使用的协方差矩阵采用这种形式。由于它们是对称的,我们可以选择其特征向量是正交的(以单位长度彼此垂直)——这是对称矩阵的基本属性。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        让我们介绍一些SVD中经常使用的术语。我们将 AAT 的特征向量命名为 ui  ATA 为 vi,并将这些特征向量集 u 和 称为 A 的奇异向量。两个矩阵具有相同的正特征值。这些特征值的平方根称为奇异值

        到目前为止没有太多的解释,但让我们先把所有东西放在一起,接下来会解释。我们将向量 ui 连接成 U将 vi 连接到 以形成正交矩阵。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        由于这些向量是正交的,因此很容易证明 U 和 V 服从

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

六、SVD

        让我们先从困难的部分开始。SVD 指出任何矩阵 A 都可以分解为:

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        其中 U 和 V 是正交矩阵,正交特征向量分别从 AAT 和 ATA 中选择。S 是一个对角矩阵,其中 r 元素等于 AAT 或 AT A 的正特征值的根(无论如何,两个矩阵具有相同的正特征值)。对角线元素由奇异值组成。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

i.e. an m× n matrix can be factorized as:

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        我们可以按不同的顺序排列特征向量以产生 U 和 V。为了标准化解决方案,我们对特征向量进行排序,使特征值较高的向量优先于特征值较小的向量。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        与特征分解相比,SVD 适用于非平方矩阵。U 和 V 对于 SVD 中的任何矩阵都是可逆的,它们是我们喜欢的正交矩阵。如果没有证据,我们还告诉您奇异值比特征值更稳定。

示例(示例来源)

在走得太远之前,让我们用一个简单的例子来演示它。这将使事情变得非常容易理解。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

我们计算:

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

这些矩阵至少是正半定的(所有特征值都是正数或零)。如图所示,它们具有相同的正特征值(25 和 9)。下图还显示了它们对应的特征向量。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

奇异值是正特征值的平方根,即 5 和 3。因此,SVD 组成是

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

七、证明(可选)

        为了证明 SVD,我们希望用以下公式求解 U、S  V

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

我们有 3 个未知数。希望我们能用上面的 3 个方程来解决它们。A 的转置是

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

会意

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

我们计算 ATA

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

最后一个方程等效于矩阵 (ATA) 的特征向量定义。 我们只是将所有特征向量放在一个矩阵中。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

与 VS² 等于

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

V 保存 ATA 的所有特征向量 viS 保存 ATA 所有特征值的平方根。我们可以对AAT重复相同的过程,并返回类似的等式。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        现在,我们只需求解 U、V  S

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        并证明定理。

八、回顾

        以下是 SVD 的回顾。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

哪里

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

九、重新制定 SVD

        由于矩阵 V 是正交的,因此 VTV 等于 I。我们可以将 SVD 方程重写为:

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        这个等式在uivi之间建立了重要的关系。

        召回

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

应用 AV = US

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

这可以概括为

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

等同于

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

SVD分解可以识别为ui和vi的一系列外积

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

SVD的这种公式化是理解A的组成部分的关键。它提供了一种将 m × n 个纠缠数据数组分解为 r 个组件的重要方法。由于 ui 和 vi 是单位向量,我们甚至可以忽略奇异值 σi 非常小的项 (σiuiviT)。(我们稍后会回到这个问题。

让我们首先重用之前的示例并展示它是如何工作的。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

上面的矩阵 A 可以分解为

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

十、列空间、行空间、左空空间和空空间(可选 - 适用于高级用户)

        接下来,我们将看看U&V由什么组成。假设 A 是秩 r 的 m × n 矩阵。ATA 将是一个 n×n 对称矩阵。所有对称矩阵都可以选择 n 个正交特征向量 vj。由于 Avi = σiui  vj 是 ATA 的正交特征向量,我们可以将 uiTuj 的值计算为

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        它等于零。即 UI  uj 彼此正交。如前所述,它们也是AAT的特征向量。

        从 Avi = σui,我们可以认识到 ui 是 A 的列向量

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        因为 A 的秩为 r,我们可以选择这些 r ui 向量作为正交向量。那么AAT剩余的m-r正交特征向量是什么?由于 A 的左零空间与列空间正交,因此选择它们作为剩余的特征向量是很自然的。(左边的零点 NAT) 是 ATx=0 中 x 的空间跨度。类似的参数也适用于 ATA 的特征向量。因此

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        回到以前的 SVD 方程,从

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        我们只是将特征向量放回左零空间和零空间中。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

十一、摩尔-彭罗斯伪逆

        对于线性方程组,我们可以计算方阵 A 的逆函数来求解 x

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        但并非所有矩阵都是可逆的。此外,在 ML 中,在数据中存在噪声的情况下,不太可能找到精确的解决方案。我们的目标是找到最适合数据的模型。为了找到最合适的解决方案,我们计算了一个伪逆

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        这最大限度地减少了下面的最小二乘误差。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        x的解可以估计为,

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        在线性回归问题中,x 是我们的线性模型,A 包含训练数据,b 包含相应的标签。我们可以通过以下方式解决 x

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

下面是一个示例。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

十二、方差和协方差

        在 ML 中,我们识别模式和关系。我们如何识别数据中属性的相关性?让我们从一个例子开始讨论。我们对 12 人的身高和体重进行抽样并计算他们的平均值。我们通过用其平均值减去原始值来将其归零。例如,下面的矩阵 A 保存调整后的零中心高度和体重。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        当我们绘制数据点时,我们可以认识到身高和体重是正相关的。但是,我们如何量化这种关系呢?

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        首先,房产有何不同?我们可能从高中开始学习差异。让我们介绍一下它的表弟。样本方差定义为:

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        请注意,它在方差中除以 n-1 而不是 n。在样本大小有限的情况下,样本均值存在偏差并与样本相关。与该均值的平均平方距离将小于与一般总体的平均平方距离。样本协方差 S² 除以 n-1 补偿较小的值,并且可以证明是方差 σ² 的无偏估计。(证明不是很重要,所以我在这里简单地提供一个证明的链接。

十三、协方差矩阵

        方差衡量变量在自身之间如何变化,而协方差在两个变量(a 和 b)之间变化。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        我们可以将所有这些可能的协方差组合保存在一个称为协方差矩阵 Σ 的矩阵中。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

我们可以用简单的矩阵形式重写它。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

对角元素保存各个变量(如高度)的方差,非对角元素保存两个变量之间的协方差。现在让我们计算样本协方差。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

正样本协方差表示体重和身高呈正相关。如果它们负相关,则为负,如果它们是独立的,则为零。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

协方差矩阵和SVD

我们可以使用 SVD 来分解样本协方差矩阵。由于σ₂与σ相比相对较小,我们甚至可以忽略σ₂项。当我们训练 ML 模型时,我们可以对体重和身高执行线性回归以形成一个新属性,而不是将它们视为两个分离且相关的属性(纠缠数据通常会使模型训练更加困难)。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

U₁ 具有一个重要的重要性。它是 S 的主要成分。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

SVD 上下文中的样本协方差矩阵有几个属性:

  • 数据的总方差等于样本协方差矩阵 S 的迹线,该迹线等于 S 奇异值的平方和。有了这个,我们可以计算如果我们去掉较小的σi项,损失的方差比率。 这反映了如果我们消除它们会丢失多少信息。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

  • S 的第一个特征向量 u₁ 指向数据最重要的方向。在我们的示例中,它量化了体重和身高之间的典型比例。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

垂直最小二乘法

  • 误差计算为从采样点到 u₁ 的垂直平方距离之和,是使用 SVD 时的最小值。

财产

协方差矩阵不仅是对称的,而且是正半定的。由于方差为正或零,因此下面的uTVu始终大于或等于零。通过能量测试,V是正半定的。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

因此

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

通常,在一些线性变换 A 之后,我们想知道转换后数据的协方差。这可以使用转换矩阵 A 和原始数据的协方差来计算。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

相关矩阵

相关矩阵是协方差矩阵的缩放版本。相关矩阵将变量标准化(缩放)为标准差为 1。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

如果变量的尺度非常不同,则将使用相关矩阵。不良缩放可能会损害梯度下降等 ML 算法。

十四、可视化

        到目前为止,我们有很多方程式。让我们可视化 SVD 的作用并逐步开发洞察力。SVD 将矩阵 A 分解为 USVT。 将 A 应用于矢量 x (Ax) 可以可视化为在 x 上执行旋转 (VT)、缩放 (S) 和另一个旋转 (U)。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

如上所示,V 的特征向量 vi 转换为:

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

或以全矩阵形式

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

演示 r = m < n

十五、SVD的见解

如前所述,SVD 可以表述为

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

由于 ui 和 vi 具有单位长度,因此决定每个项的重要性的最主要因素是奇异值 σi。我们特意按降序对σi进行排序。如果特征值变得太小,我们可以忽略剩余的项(+σiuiviT + ...)。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

这种公式化有一些有趣的含义。例如,我们有一个矩阵,其中包含不同投资者交易的股票收益率的回报。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

作为基金经理,我们可以从中得到什么信息?寻找模式和结构将是第一步。也许,我们可以确定收益率最高的股票和投资者的组合。SVD 将 n × n 个矩阵分解为 r 个分量,奇异值 σi 表明其显著性。将此视为一种将纠缠和相关属性提取到较少的主方向上且没有相关性的方法。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

如果数据高度相关,我们应该期望许多σi值很小并且可以忽略。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

在我们前面的示例中,体重和身高高度相关。如果我们有一个包含 1000 人的体重和身高的矩阵,SVD 分解中的第一个分量将占主导地位。u₁ 矢量确实展示了我们之前讨论过的这 1000 人中体重和身高之间的比率。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

十六、主成分分析

        从技术上讲,SVD 分别在方差最大的方向上提取数据。PCA 是将 m 维输入特征映射到 k 维潜在因子(k 个主成分)的线性模型。如果我们忽略不太重要的项,我们将删除不太关心的组件,但保留具有最高方差(最大信息)的主方向。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

考虑下面显示为蓝点的三维数据点。它可以很容易地用飞机近似。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

您可能很快意识到,我们可以使用 SVD 来查找矩阵 W。考虑下面位于二维空间上的数据点。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

SVD 选择最大化其输出方差的投影。因此,如果方差较高,PCA 将选择蓝线而不是绿线。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

As indicated below, we keep the eigenvectors that have the top kth highest singular value.

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

利率

让我们通过追溯来自美国财政部的利率数据来更深入地说明这个概念。9种不同利率的基点(从3个月,6个月,...至 20 年)收集连续 6 个工作日以上,A 存储与前一个日期的差额。在此期间,A 的元素也已经减去其平均值。即它是以零为中心的(跨其行)。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

样本协方差矩阵等于 S = AAT/(5–1)。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

现在我们有了想要分解的协方差矩阵 S。SVD 分解为

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

从 SVD 分解中,我们意识到我们可以专注于前三个主组件。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        如图所示,第一个主成分与所有到期期限的每日变化的加权平均值相关。第二个主成分调整对债券到期期限敏感的每日变化。(第三个主成分可能是曲率——二阶导数。

        我们在日常生活中非常了解利率变化与到期日之间的关系。因此,主要成分再次证实了我们对利率行为的看法。但是,当我们看到不熟悉的原始数据时,PCA对于提取数据的主要组成部分以找到底层信息结构非常有帮助。这可能会回答一些关于如何在大海捞针中找到针的问题。

十七、技巧

        在执行 SVD 之前缩放要素。

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习

        比如说,我们想保留 99% 的方差,我们可以选择 k 这样

【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA),机器学习和深度学习,决策树,算法,机器学习文章来源地址https://www.toymoban.com/news/detail-615830.html

到了这里,关于【机器学习】 奇异值分解 (SVD) 和主成分分析 (PCA)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【机器学习】主成分分析(PCA)算法及Matlab实现

    【问题引入】 在许多领域的研究与应用中,往往需要对反映事物的多个变量进行大量的观测,收集大量数据以便进行分析寻找规律。多变量大样本无疑会为研究和应用提供了丰富的信息,但也在一定程度上增加了数据采集的工作量,更重要的是在多数情况下,许多变量之间可

    2024年02月04日
    浏览(36)
  • 特征值与特征向量: 矩阵的奇异值分解与主成分分析

    随着数据量的增加,数据处理和分析变得越来越复杂。在大数据领域,我们需要一种有效的方法来处理高维数据,以便更好地理解数据之间的关系和模式。这就是奇异值分解(Singular Value Decomposition, SVD)和主成分分析(Principal Component Analysis, PCA)发挥作用的地方。在本文中,我们将

    2024年02月19日
    浏览(32)
  • 机器学习强基计划8-1:图解主成分分析PCA算法(附Python实现)

    机器学习强基计划聚焦深度和广度,加深对机器学习模型的理解与应用。“深”在详细推导算法模型背后的数学原理;“广”在分析多个机器学习模型:决策树、支持向量机、贝叶斯与马尔科夫决策、强化学习等。强基计划实现从理论到实践的全面覆盖,由本人亲自从底层编

    2024年02月02日
    浏览(31)
  • 奇异值分解(SVD)和图像压缩

    在本文中,我将尝试解释 SVD 背后的数学及其几何意义,还有它在数据科学中的最常见的用法,图像压缩。 奇异值分解是一种常见的线性代数技术,可以将任意形状的矩阵分解成三个部分的乘积:U、S、V。原矩阵A可以表示为: 具体来说,A矩阵中的奇异值就是Sigma矩阵中的对

    2023年04月10日
    浏览(32)
  • 奇异值分解(SVD)和np.linalg.svd()函数用法

            奇异值分解是一种十分重要但又难以理解的矩阵处理技术,在机器学习中是最重要的分解没有之一的存在。那么,奇异值分解到底是在干什么呢?         矩阵 A 表示的是高维数据,通常情况下高维数据分布并不是雨露均沾的,而往往是厚此薄彼,集中分布

    2023年04月08日
    浏览(69)
  • Python实现矩阵奇异值分解(SVD)

    Python实现矩阵奇异值分解(SVD) 矩阵奇异值分解(Singular Value Decomposition, SVD)是一种重要的矩阵分解方法,可以将一个矩阵分解成三个矩阵的乘积,即 A = U Σ V T A=USigma V^{T} A = U Σ

    2024年02月10日
    浏览(33)
  • 数值线性代数:奇异值分解SVD

    本文记录计算矩阵奇异值分解SVD的原理与流程。 注1:限于研究水平,分析难免不当,欢迎批评指正。 设列满秩矩阵,若的特征值为,则称为矩阵的奇异值。 设,则存在正交矩阵与,使得 其中,,,即为矩阵的奇异值。 考虑下述两种情形: 情形1: 其中, 由此可以看出,

    2024年02月15日
    浏览(40)
  • 矩阵篇(五)-- 特征值分解(EVD)和奇异值分解(SVD)

            设 A n × n A_{n times n} A n × n ​ 有 n n n 个线性无关的特征向量 x 1 , … , x n boldsymbol{x}_{1}, ldots, boldsymbol{x}_{n} x 1 ​ , … , x n ​ ,对应特征值分别为 λ 1 , … , λ n lambda_{1}, ldots, lambda_{n} λ 1 ​ , … , λ n ​ A [ x 1 ⋯ x n ] = [ λ 1 x 1 ⋯ λ n x n ] Aleft[begin{array}{lll

    2024年02月08日
    浏览(39)
  • SVD,奇异值分解的计算步骤以及实例讲解

           奇异值分解 (singular value decomposition,SVD),已经成为矩阵计算中最有用和最有效的工具之一,并且在最小二乘问题、最优化、统计分析、信号与图像处理、系统理论与控制等领域得到广泛应用。         首先我们都知道方阵是可以特征值分解的,那么问题来了,如果矩

    2024年02月04日
    浏览(28)
  • 奇异值分解SVD(singular value decomposition)

    SVD是一个很有用的矩阵因子化方法。 SVD提出的目的:任何一个 m × n mtimes n m × n 的矩阵都可以当作一个超椭圆(高维空间的椭圆),可以把它们当作单位球体S的像。 一个超椭圆可以通过将单位球型在正交方向 u 1 , u 2 , . . . , u m mathbf{u_1},mathbf{u_2},...,mathbf{u_m} u 1 ​ , u 2 ​

    2024年02月03日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包