范数详解-torch.linalg.norm计算实例

这篇具有很好参考价值的文章主要介绍了范数详解-torch.linalg.norm计算实例。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前些天发现了一个巨牛的人工智能学习网站,通俗易懂,风趣幽默,忍不住分享一下给大家。点击跳转到网站。

范数是一种数学概念,可以将向量或矩阵映射到非负实数上,通常被用来衡量向量或矩阵的大小或距离。在机器学习和数值分析领域中,范数是一种重要的工具,常用于正则化、优化、降维等任务中。

本文以torch.linalg.norm()函数举例,详细讲解F范数、核范数、无穷范数等范数的定义和计算。

参考官方文档https://pytorch.org/docs/stable/generated/torch.linalg.norm.html

由于torch.norm()已弃用,所以以torch.linalg.norm()讲解,也可以使用 NumPy 或者 SciPy 库中的 numpy.linalg.norm 或 scipy.linalg.norm 函数。下图是其支持的各种范数:
torch.linalg.norm,机器学习,机器学习,深度学习,python,人工智能,范数

二范数


标准二范数(2-norm)是向量的一种范数,通常用来衡量向量的大小。二范数可以说是出场率最高的了,比如在最小二乘法中,还有如线性代数中的向量空间、矩阵分解等。
标准二范数的一些重要性质包括:

  • 非负性:
    对于任意向量 x x x,它的标准二范数都是非负的,即 ∣ ∣ x ∣ ∣ 2 ≥ 0 ||x||_2 \geq 0 ∣∣x20
  • 齐次性:
    对于任意向量 x x x和任意实数 k k k,有 ∣ ∣ k x ∣ ∣ 2 = ∣ k ∣ ∣ ∣ x ∣ ∣ 2 ||kx||_2 = |k|||x||_2 ∣∣kx2=k∣∣∣x2
  • 三角不等式:
    对于任意向量 x 和 y,有 ∣ ∣ x + y ∣ ∣ 2 ≤ ∣ ∣ x ∣ ∣ 2 + ∣ ∣ y ∣ ∣ 2 ||x+y||_2\leq ||x||_2+||y||_2 ∣∣x+y2∣∣x2+∣∣y2
  • 向量的 Cauchy-Schwarz 不等式:
    对于任意向量 x x x y y y,有 ∣ x ⋅ y ∣ ≤ ∣ ∣ x ∣ ∣ 2 ∣ ∣ y ∣ ∣ 2 |x·y| \leq ||x||_2 ||y||_2 xy∣∣x2∣∣y2

对于一个 n n n维向量 x x x,它的标准二范数定义如下:
∣ ∣ x ∣ ∣ 2 = ( ∑ i = 1 n x i 2 ) 1 2 ||x||_2 = (\sum_{i=1}^n x_i^2)^{\frac{1}{2}} ∣∣x2=(i=1nxi2)21

其中, x i x_i xi表示向量 x x x的第 i i i个元素的值。
标准二范数的计算方法类似于欧几里得距离,都是将所有元素的平方和开根号。标准二范数也可以表示为向量的点积和向量的模长的乘积,即:
∣ ∣ x ∣ ∣ 2 = x ⋅ x = ∣ x ∣ x ∣ x ∣ ⋅ x ∣ x ∣ ||x||_2 = \sqrt{x·x}= |x|\sqrt{\frac{x}{|x|}·\frac{x}{|x|}} ∣∣x2=xx =xxxxx

其中, ⋅ · 表示点积, ∣ x ∣ |x| x表示向量 x x x的模长, x ∣ x ∣ \frac{x}{|x|} xx表示向量 x x x的单位向量。

在 PyTorch 中,可以使用 torch.linalg.norm 函数来计算向量的标准二范数,例如:

	x = torch.tensor([1, 2, 3, 4, 5], dtype=torch.float)
	norm_2 = torch.linalg.norm(x)
	print(norm_2)
	# 输出 7.4162,即 (√(1^2 + 2^2 + 3^2 + 4^2 + 5^2))

F范数


F范数(Frobenius范数)是一种矩阵的范数,用来衡量矩阵的大小。F范数在很多应用中都有重要的作用,例如矩阵近似、矩阵压缩、矩阵分解等。
F范数的一些重要性质包括:

  • 非负性
    对于任意矩阵 A A A,它的F范数都是非负的,即 ∣ ∣ A ∣ ∣ F ≥ 0 ||A||_F\geq 0 ∣∣AF0
  • 齐次性
    对于任意矩阵 A A A和任意实数 k k k,有 ∣ ∣ k A ∣ ∣ F = ∣ k ∣ ∣ ∣ A ∣ ∣ F ||kA||_F = |k|||A||_F ∣∣kAF=k∣∣∣AF
  • 三角不等式
    对于任意矩阵 A A A B B B,有 ∣ ∣ A + B ∣ ∣ F ≤ ∣ ∣ A ∣ ∣ F + ∣ ∣ B ∣ ∣ F ||A+B||_F\leq ||A||_F + ||B||_F ∣∣A+BF∣∣AF+∣∣BF
  • 特殊性质
    对于一个正交矩阵 Q Q Q,它的F范数等于 1,即 ∣ ∣ Q ∣ ∣ F = 1 ||Q||_F=1 ∣∣QF=1

对于一个 n n n m m m列的矩阵 A A A,它的F范数定义如下:

∣ ∣ A ∣ ∣ F = ( ∑ i = 1 n ∑ j = 1 m A i j 2 ) 1 2 ||A||_F = (\sum_{i=1}^n\sum_{j=1}^mA_{ij}^2)^{\frac{1}{2}} ∣∣AF=(i=1nj=1mAij2)21

其中, A i j A_{ij} Aij表示矩阵 A A A的第 i i i行第 j j j列元素的值。
F范数的计算方法类似于标准二范数,都是将所有元素的平方和开根号。与标准二范数不同的是,F范数的加和是在矩阵的所有元素上进行的,而不是在向量的所有元素上进行的。

在 PyTorch 中,可以使用 torch.linalg.norm 函数来计算矩阵的F范数,其对应的参数为 ord='fro',例如:

	A = torch.tensor([[1, 2],
	                  [3, 4],
	                  [5, 6]], dtype=torch.float)
	norm_F = torch.linalg.norm(A, ord='fro')
	print(norm_F) 
	# 输出 9.5394,即 (√(1^2 + 2^2 + 3^2 + 4^2 + 5^2 + 6^2))

核范数


核范数(nuclear norm),也称为矩阵1-范数(matrix 1-norm),也是一种用于衡量矩阵的大小的范数。核范数在矩阵分解、矩阵压缩、矩阵近似等方面有广泛的应用。例如在矩阵分解中,核范数可以用于衡量原始矩阵与分解后的矩阵的差异程度,从而可以优化分解的结果。
核范数的一些重要性质包括:

  • 非负性:
    对于任意矩阵 A A A,它的核范数都是非负的,即 ∣ ∣ A ∣ ∣ ∗ ≥ 0 ||A||_* \geq 0 ∣∣A0
  • 齐次性:
    对于任意矩阵 A A A和任意实数 k k k,有 ∣ ∣ k A ∣ ∣ ∗ = ∣ k ∣ ∣ ∣ A ∣ ∣ ∗ ||kA||_* = |k| ||A||_* ∣∣kA=k∣∣∣A
  • 子加性:
    对于任意矩阵 A A A B B B,有 ∣ ∣ A + B ∣ ∣ ∗ ≤ ∣ ∣ A ∣ ∣ ∗ + ∣ ∣ B ∣ ∣ ∗ ||A+B||_* \leq ||A||_* + ||B||_* ∣∣A+B∣∣A+∣∣B
  • 矩阵的谱范数性质:
    对于任意矩阵 A A A,有 ∣ ∣ A ∣ ∣ ∗ = ∣ ∣ A T ∣ ∣ ∗ = ∣ ∣ A H ∣ ∣ ∗ ||A||_* = ||A^T||_* = ||A^H||_* ∣∣A=∣∣AT=∣∣AH,其中 A H A^H AH是矩阵 A A A的共轭转置。

对于一个矩阵 A A A,它的核范数定义如下:
∣ ∣ A ∣ ∣ ∗ = ∑ i σ i ||A||_* = \sum_i\sigma_i ∣∣A=iσi

其中, σ i \sigma_i σi是矩阵 A A A的奇异值(singular value),表示矩阵 A A A的第 i i i大的奇异值。核范数的计算方法是将矩阵 A 奇异值的绝对值相加。

奇异值分解(singular value decomposition,SVD)是一种常用的矩阵分解方法,用于将一个矩阵分解为三个矩阵的乘积,即
A = U Σ V T A = UΣVᵀ A=UΣVT
具体求解这里不过多展开,可以理解为一种压缩分解技术,原本很大的矩阵,现在只需3个小矩阵就能存储,可以使用torch.svd()进行奇异值分解。

在 PyTorch 中,可以使用 torch.linalg.norm 函数来计算矩阵的核范数,其对应的参数为 ord='nuc',例如:

	A = torch.tensor([[1, 2, 3],
	                  [4, 5, 6],
	                  [7, 8, 9]], dtype=torch.float)
	norm_nuclear = torch.linalg.norm(A, ord='nuc')
	u, s, v = torch.svd(A)
	print(s)
	print(norm_nuclear)
	# 输出 17.9165,即 1.6848e+01 + 1.0684e+00 + 2.3721e-07

torch.linalg.norm,机器学习,机器学习,深度学习,python,人工智能,范数

注:不同函数封装的奇异值分解算法可能不同,得到奇异值可能有些许出入,但应都在一个数量级。

插播反爬信息 )博主CSDN地址:https://wzlodq.blog.csdn.net/

无穷范数


无穷范数是矩阵的一种范数,也称为最大值范数或者列范数。无穷范数在矩阵计算和优化中有广泛的应用。例如,在矩阵乘法中,可以使用无穷范数来衡量矩阵乘积的大小;在优化问题中,可以使用无穷范数作为约束条件或者目标函数。

无穷范数也有一些重要的性质,包括:

  • 非负性
    对于任意矩阵 A A A,它的无穷范数都是非负的,即 ∣ ∣ A ∣ ∣ ∞ ≥ 0 ||A||_\infty \geq 0 ∣∣A0
  • 齐次性
    对于任意矩阵 A A A和任意实数 k k k,有 ∣ ∣ k A ∣ ∣ ∞ = ∣ k ∣ ∣ ∣ A ∣ ∣ ∞ ||kA||_\infty = |k| ||A||_\infty ∣∣kA=k∣∣∣A
  • 三角不等式
    对于任意矩阵 A A A B B B,有 ∣ ∣ A + B ∣ ∣ ∞ ≤ ∣ ∣ A ∣ ∣ ∞ + ∣ ∣ B ∣ ∣ ∞ ||A+B||_\infty \leq ||A||_\infty + ||B||_\infty ∣∣A+B∣∣A+∣∣B
  • 矩阵乘法性质
    对于任意矩阵 A A A B B B,有 ∣ ∣ A B ∣ ∣ ∞ ≤ ∣ ∣ A ∣ ∣ ∞ ∣ ∣ B ∣ ∣ ∞ ||AB||_\infty \leq ||A||_\infty ||B||_\infty ∣∣AB∣∣A∣∣B

对于一个 m × n m\times n m×n的矩阵 A A A,它的无穷范数定义为:

∣ ∣ A ∣ ∣ ∞ = max ⁡ 1 ≤ i ≤ m ∑ j = 1 n ∣ a i j ∣ ||A||{\infty} = \max_{1\leq i\leq m} \sum_{j=1}^{n} |a_{ij}| ∣∣A∣∣=1immaxj=1naij

其中, i i i的取值范围是 [ 1 , m ] [1, m] [1,m],表示矩阵 A A A的第 i i i行; j j j的取值范围是 [ 1 , n ] [1, n] [1,n],表示矩阵 A A A的第 j j j列。换句话说,无穷范数是将每一列的绝对值相加,然后取其中的最大值。

PyTorch 中其对应的参数为ord='inf',例如:

	A = torch.tensor([[1, 2, 3],
	                  [4, 5, 6],
	                  [7, 8, 9]], dtype=torch.float)
	norm_inf = np.linalg.norm(A, ord=np.inf)
	print(norm_inf)
	# 输出 24,即 max{1+2+3, 4+5+6, 7+8+9}

同理,ord='-inf'表示取最小值。

需要注意的是,计算矩阵的无穷范数比计算其他范数更加简单和快速,因为只需要对每一列的绝对值相加,然后取其中的最大值即可。

L1范数


L1 范数(L1 norm)是指向量中各个元素的绝对值之和,也称为曼哈顿距离(Manhattan distance)或城市街区距离(city block distance)。

L1 范数可以被用于衡量向量或矩阵中各个元素的绝对大小,具有一些特殊的性质,例如对于稀疏向量,它的 L1 范数更容易被最小化,因为它倾向于将向量的一些元素设为 0。

与无穷范数类似,L1 范数也具有一些重要的性质,包括非负性、齐次性、三角不等式和矩阵乘法性质。在矩阵计算和优化中,L1 范数也有广泛的应用。例如,在稀疏信号处理中,可以使用 L1 范数来促进信号的稀疏性;在机器学习中,可以使用 L1 范数作为正则化项来防止过拟合。

对于一个 m × n m \times n m×n的矩阵 A A A,它的 L1 范数定义为:

∣ A ∣ 1 = max ⁡ 1 ≤ j ≤ n ∑ i = 1 m ∣ a i j ∣ |A|_1 = \max_{1\leq j\leq n} \sum_{i=1}^{m} |a_{ij}| A1=1jnmaxi=1maij

其中, j j j表示矩阵 A A A的第 j j j列, ∑ i = 1 m ∣ a i j ∣ \sum_{i=1}^{m} |a_{ij}| i=1maij表示第 j j j 列中各个元素的绝对值之和。换句话说,L1 范数是将每一列的绝对值相加,然后取其中的最大值。

PyTorch 中其对应的参数为ord='1',例如:

	A = torch.tensor([[1, 2, 3],
	                  [4, 5, 6],
	                  [7, 8, 9]],dtype=torch.float)
	norm_1 = np.linalg.norm(A, ord=1)
	print(norm_1)
	# 输出 18,即 max{1+4+7, 2+5+8, 3+6+9}

同理ord=-1表示取最小值。

L2范数


L2范数(L2 norm)也称为谱范数(spectral norm),或者最大奇异值范数(maximum singular value norm),是矩阵范数中的一种。

L2范数可以被用于衡量向量的大小,也可以被用于衡量向量之间的距离,具有一些特殊的性质,例如在最小化误差的时候,L2范数可以找到唯一的最小化点,而L1范数可能有多个最小化点。

对于一个 m × n m \times n m×n 的矩阵 A A A,它的L2范数定义为:

∣ A ∣ 2 = σ max ⁡ ( A ) |A|_2 = \sigma_{\max}(A) A2=σmax(A)
其中, ∣ ⋅ ∣ 2 |\cdot|_2 2 表示向量的 L2 范数, σ max ⁡ ( A ) \sigma{\max}(A) σmax(A) 表示矩阵 A A A 的最大奇异值(singular value)。

在实际应用中,计算矩阵的 L2 范数可以使用 SVD 分解,例如:

PyTorch 中其对应的参数为ord='2',例如:

	A = torch.tensor([[1, 2, 3],
	                 [4, 5, 6], 
	                 [7, 8, 9]], dtype=torch.float)
	norm_2 = torch.linalg.norm(A, ord=2)
	u, s, v = torch.svd(A)
	print(s)
	print(norm_2)
	# 输出 16.84810352325432

同理ord=-2表示取最小奇异值。

原创不易,请勿转载本不富裕的访问量雪上加霜
博主首页:https://wzlodq.blog.csdn.net/
来都来了,不评论两句吗👀
如果文章对你有帮助,记得一键三连❤文章来源地址https://www.toymoban.com/news/detail-774515.html

到了这里,关于范数详解-torch.linalg.norm计算实例的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 原子范数 Atomic norm最小化: 简单的Matlab例程

    基于 压缩感知的尽头: 原子范数最小化 中的原子范数最小化算法, 笔者做了一些matlab的仿真, 作为简单的例程,希望帮助大家进一步理解算法和自定义的拓展。 由于凸问题的求解需要使用 CVX, 因此需要读者先自行安装好 matlab 的 CVX包。 假设接收天线有 64 64 6 4 根, 有 3

    2023年04月08日
    浏览(69)
  • 矩阵分析与计算学习记录-向量范数与矩阵范数

    本章知识重点: 向量范数:定义、性质、等价性、分析性质 矩阵范数:定义、算子范数 矩阵范数与向量范数的相容性 矩阵的普半径及应用:普半径、矩阵序列及级数中的应用 矩阵的条件数及应用:矩阵的条件数、误差估计中的应用 范数,是具有“长度”概念的函数。 在线

    2024年02月05日
    浏览(37)
  • [当人工智能遇上安全] 8.基于API序列和机器学习的恶意家族分类实例详解

    您或许知道,作者后续分享网络安全的文章会越来越少。但如果您想学习人工智能和安全结合的应用,您就有福利了,作者将重新打造一个《当人工智能遇上安全》系列博客,详细介绍人工智能与安全相关的论文、实践,并分享各种案例,涉及恶意代码检测、恶意请求识别、

    2024年02月09日
    浏览(30)
  • 【机器学习】机器学习常见算法详解第4篇:KNN算法计算过程(已分享,附代码)

    本系列文章md笔记(已分享)主要讨论机器学习算法相关知识。机器学习算法文章笔记以算法、案例为驱动的学习,伴随浅显易懂的数学知识,让大家掌握机器学习常见算法原理,应用Scikit-learn实现机器学习算法的应用,结合场景解决实际问题。包括K-近邻算法,线性回归,逻

    2024年02月19日
    浏览(24)
  • 机器学习&&深度学习——torch.nn模块

    torch.nn模块包含着torch已经准备好的层,方便使用者调用构建网络。 卷积就是 输入和卷积核之间的内积运算 ,如下图: 容易发现,卷积神经网络中通过输入卷积核来进行卷积操作,使输入单元(图像或特征映射)和输出单元(特征映射)之间的连接时稀疏的,能够减少需要

    2024年02月15日
    浏览(29)
  • np.linalg.inv方法详解

    经过手动计算,额,技巧,得到的结果也是如此。 若是换成不可逆的矩阵呢? 看代码! 好像不行,那就换一个 所以,这个函数是一个求方阵的逆矩阵的函数,要求方阵本身可逆,所以挺鸡肋的,对于很多不可逆的方阵是没办法的!

    2024年02月12日
    浏览(23)
  • 计算方法 | 范数(向量:1范数、2范数、无穷范数;矩阵:行范数、列范数)

    0范数: 向量中非零元素的个数。 1范数: 为绝对值之和。 2范数: 通常意义上的模。 无穷范数:取向量的最大值。 行范数:矩阵中每行绝对值之和的最大值 列范数:矩阵中每列绝对值之和的最大值 范数对于数学的意义?1范数、2范数、无穷范数_yangpan011的博客-CSDN博客_无穷

    2024年02月15日
    浏览(28)
  • numpy.linalg.lstsq()详解以及用法示例

    将最小二乘解返回到线性矩阵方程。 计算近似求解方程的向量x。 该方程可能未确定、良好或过度确定(即,线性独立行数可以小于、等于或大于其线性独立列数)。 如果a是平方且为全秩,则x(但对于舍入误差)是等式的\\\"精确\\\"解。否则,x最小化欧几里得 2 范数 。 如果有

    2023年04月09日
    浏览(24)
  • 吴恩达机器学习2022-Jupyter-机器学习实例

    在这个实验室里: 探索特征工程和多项式回归,它可以让你使用线性回归机制来适应非常复杂,甚至非常非线性的函数。 您将利用在以前的实验中开发的函数以及matplotlib和NumPy。 线性回归提供了一种模型方法,公式形式为: 如果您的特性/数据是非线性的或者是特性的组合,该

    2024年02月16日
    浏览(30)
  • 【深度学习】多卡训练__单机多GPU方法详解(torch.nn.DataParallel、torch.distributed)

    多GPU训练能够加快模型的训练速度,而且在单卡上不能训练的模型可以使用多个小卡达到训练的目的。 多GPU训练可以分为单机多卡和多机多卡这两种,后面一种也就是分布式训练——训练方式比较麻烦,而且要关注的性能问题也有很多,据网上的资料有人建议能单机训练最好

    2024年02月02日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包