【数学与算法】奇异矩阵、奇异值、奇异值分解、奇异性

这篇具有很好参考价值的文章主要介绍了【数学与算法】奇异矩阵、奇异值、奇异值分解、奇异性。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

我们经常会碰到几个名词很相近的一些数学术语,例如奇异矩阵、奇异值、奇异值分解、奇异性,经常会混淆,这里把它们的定义放在一起,做一下总结:

1.奇异矩阵:

奇异矩阵是线性代数的概念,就是该矩阵的秩不是满秩

  • 首先,看这个矩阵是不是方阵,即行数和列数相等的矩阵,若行数和列数不相等,那就谈不上奇异矩阵和非奇异矩阵;
  • 然后,再看此矩阵的行列式 ∣ A ∣ \color{red}|A| A是否等于0,若 ∣ A ∣ = 0 \color{red}|A|=0 A=0,称矩阵 A A A奇异矩阵;若 ∣ A ∣ ≠ 0 \color{red}|A|≠0 A=0,称矩阵 A A A为非奇异矩阵。
  • 同时,由 ∣ A ∣ ≠ 0 \color{red}|A|≠0 A=0可知矩阵A可逆,这样可以得出另外一个重要结论:可逆矩阵就是非奇异矩阵,非奇异矩阵也是可逆矩阵
  • 如果 A A A奇异矩阵,则 A X = 0 \color{red}AX=0 AX=0 有无穷解, A X = b \color{red}AX=b AX=b 有无穷解或者无解;
  • 如果 A A A非奇异矩阵,则 A X = 0 \color{red}AX=0 AX=0 有且只有唯一零解, A X = b \color{red}AX=b AX=b 有唯一解。

2.奇异值和奇异值分解:

这篇博客奇异值的物理意义是什么,是讲解奇异值的作用,有例子分析使用奇异值分解来进行图像压缩图像去噪,并且对于不是方阵的矩阵也可以分解。

图像压缩图像去噪用的方法都是奇异值分解,过程也是一样,但是他们的目的不一样:

  • 当我们想要压缩图像进行传输时,我们可以用奇异值分解;
  • 当我们想要对图像进行去噪时,我们也可以用奇异值分解;

这就像,我们想要看电影,我们可以使用电脑;我们想要打游戏,我们也可以使用电脑。


该博客的核心是:
奇异矩阵,数学和算法,数学
这里做一下说明: u u u v v v都是列向量, u u u列向量的维度等于 A m ∗ n A_{m*n} Amn的行数m、 v v v列向量的维度等于 A A A的列数n,那么 u v T uv^T uvT就是 (mx1)*(1xn)=mxn的矩阵,但是 u v T uv^T uvT的秩必定为1。
例如:
[ 1 2 3 ] ∗ [ 6 7 8 ] = [ 1 ∗ 6 1 ∗ 7 1 ∗ 8 2 ∗ 6 2 ∗ 7 2 ∗ 8 3 ∗ 6 3 ∗ 7 3 ∗ 8 ] \begin{bmatrix} 1\\2\\3\\ \end{bmatrix} * \begin{bmatrix} 6&7&8\\ \end{bmatrix} =\begin{bmatrix} 1*6&1*7&1*8\\2*6&2*7&2*8\\3*6&3*7&3*8\\ \end{bmatrix} 123[678]=162636172737182838
可以看到,上面等式右边的矩阵秩必定为1。

【奇异值分解】 在 【图像压缩】 的运用:

奇异矩阵,数学和算法,数学


这篇博客奇异值分解是讲解怎么进行SVD奇异值分解,包括求 U U U V V V、奇异值矩阵 Σ \Sigma Σ。主要内容如下:
奇异矩阵,数学和算法,数学

奇异矩阵,数学和算法,数学


3.奇异性:

奇异矩阵,数学和算法,数学文章来源地址https://www.toymoban.com/news/detail-734836.html

到了这里,关于【数学与算法】奇异矩阵、奇异值、奇异值分解、奇异性的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【线性代数/机器学习】矩阵的奇异值与奇异值分解(SVD)

    我们知道,对于一个 n × n ntimes n n × n 的矩阵 A A A ,如果 A A A 有 n n n 个线性无关的特征向量,则 A A A 可以相似对角化,即存在可逆矩阵 P P P 使得 A = P Λ P − 1 A=PLambda P^{-1} A = P Λ P − 1 ,其中 Λ Lambda Λ 是 A A A 的特征值组成的对角阵。 P P P 的列实际上就是 A A A 的特征向

    2024年02月10日
    浏览(39)
  • 矩阵篇(五)-- 特征值分解(EVD)和奇异值分解(SVD)

            设 A n × n A_{n times n} A n × n ​ 有 n n n 个线性无关的特征向量 x 1 , … , x n boldsymbol{x}_{1}, ldots, boldsymbol{x}_{n} x 1 ​ , … , x n ​ ,对应特征值分别为 λ 1 , … , λ n lambda_{1}, ldots, lambda_{n} λ 1 ​ , … , λ n ​ A [ x 1 ⋯ x n ] = [ λ 1 x 1 ⋯ λ n x n ] Aleft[begin{array}{lll

    2024年02月08日
    浏览(49)
  • 机器学习实战:Python基于SVD奇异值分解进行矩阵分解(八)

    1.1 奇异值分解 奇异值分解( Singular Value Decomposition,SVD )是一种重要的矩阵分解技术,它可以将一个矩阵分解为三个矩阵的乘积,分别为左奇异矩阵、奇异值矩阵和右奇异矩阵。SVD 的原理可以描述如下: 对于任意 m × n m times n m × n 的矩阵 A A A ,它的 SVD 分解为: A = U $

    2024年02月02日
    浏览(56)
  • 奇异值分解与矩阵逆:数值实现与优化

    奇异值分解(Singular Value Decomposition, SVD)和矩阵逆(Matrix Inverse)是线性代数和数值分析领域中非常重要的概念和方法。这两者在现实生活中的应用非常广泛,例如图像处理、信号处理、数据挖掘、机器学习等领域。在这篇文章中,我们将从以下几个方面进行深入的讨论: 背景介绍

    2024年04月12日
    浏览(31)
  • 【Python】scipy稀疏矩阵的奇异值分解svds

    当 A A A 是方阵时,可以很容易地进行特征分解: A = W Σ W − 1 A=WSigma W^{-1} A = W Σ W − 1 ,其中 Σ Sigma Σ 是 A A A 的特征值组成的对角矩阵。如果 W W W 由标准正交基组成,则 W − 1 = W T W^{-1}=W^T W − 1 = W T ,特征分解可进一步写成 W T Σ W W^TSigma W W T Σ W 。 然而,当 A A A 不是方

    2024年02月12日
    浏览(39)
  • 高等工程数学 —— 第三章(2)奇异值分解和A的加号逆

    首先来看什么是奇异值 也别管什么原理了,直接看方法和例题。盘它! 奇异值分解步骤: 这里就是先求 A H A A^{H}A A H A 的特征值,然后求其特征向量并将每一个特征向量进行单位化得 V V V 然后看有几个非零特征向量就分出来几列当 V 1 V_1 V 1 ​ 求出 U 1 U_1 U 1 ​ 后将其补全成

    2023年04月13日
    浏览(30)
  • 矩阵:采用奇异值分解(SVD)对n个点进行平面拟合

    奇异值分解(Singular Value Decomposition, SVD),是线性代数中一种重要的矩阵分解,在信号处理、统计学等领域有重要应用。奇异值分解在某些方面与对称矩阵或厄米矩阵基于特征向量的对角化类似。对称矩阵特征向量分解的基础是谱分析,而奇异值分解则是谱分析理论在任意矩

    2023年04月08日
    浏览(36)
  • 特征值与特征向量: 矩阵的奇异值分解与主成分分析

    随着数据量的增加,数据处理和分析变得越来越复杂。在大数据领域,我们需要一种有效的方法来处理高维数据,以便更好地理解数据之间的关系和模式。这就是奇异值分解(Singular Value Decomposition, SVD)和主成分分析(Principal Component Analysis, PCA)发挥作用的地方。在本文中,我们将

    2024年02月19日
    浏览(42)
  • (01)ORB-SLAM2源码无死角解析-(18) SVD奇异值分解→求解Homography,Fundamental矩阵,了解矩阵自由度

    讲解关于slam一系列文章汇总链接:史上最全slam从零开始,针对于本栏目讲解的(01)ORB-SLAM2源码无死角解析链接如下: (01)ORB-SLAM2源码无死角解析-(00)目录_最新无死角讲解:https://blog.csdn.net/weixin_43013761/article/details/123092196   文末正下方中心提供了本人 联系方式, 点击本人照片即可

    2024年02月02日
    浏览(87)
  • PCA数学原理和非负矩阵分解

    于剑老师的教课书太难懂,\\\"PCA主成因分析\\\"这段实在看不懂,还是参考其他老师的文章才基本看懂。 我是搬运工: https://mp.weixin.qq.com/s/Hp1Y1RFH4sxcZjhHuq899A 还要啰嗦一下的是,PCA的理论基础: 根据定义,若x,y独立,则E(xy) = ExEy。若可以将协方差矩阵转换为对角矩阵,那么可以

    2024年02月07日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包