用python实现矩阵和向量的范数(包括一范数,二范数,无穷范数)

这篇具有很好参考价值的文章主要介绍了用python实现矩阵和向量的范数(包括一范数,二范数,无穷范数)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

首先,导入需要用到的库:

import numpy as np

创建一个矩阵和一个向量并输出:

# 创建一个矩阵和一个向量
matrix = np.array([[1, 2, 3],
                   [4, 5, 6],
                   [7, 8, 9]])

vector = np.array([1, 2, 3])
print(f"矩阵:{matrix}")
print(f"向量:{vector}")

计算矩阵的第一范数:

# 计算矩阵的一范数
matrix_l1_norm = np.linalg.norm(matrix, ord=1)
print(f"矩阵的一范数为:{matrix_l1_norm}")

计算矩阵的第二范数:

# 计算矩阵的二范数
matrix_l2_norm = np.linalg.norm(matrix, ord=2)
print(f"矩阵的二范数为:{matrix_l2_norm}")

计算矩阵的无穷范数:

# 计算矩阵的无穷范数
matrix_inf_norm = np.linalg.norm(matrix, ord=np.inf)
print(f"矩阵的无穷范数为:{matrix_inf_norm}")

计算向量的第一范数:

# 计算向量的一范数
vector_l1_norm = np.linalg.norm(vector, ord=1)
print(f"向量的一范数为:{vector_l1_norm}")

计算向量的第二范数:

# 计算向量的二范数
vector_l2_norm = np.linalg.norm(vector, ord=2)
print(f"向量的二范数为:{vector_l2_norm}")

计算向量的无穷范数:

# 计算向量的无穷范数
vector_inf_norm = np.linalg.norm(vector, ord=np.inf)
print(f"向量的无穷范数为:{vector_inf_norm}")


完整代码如下:文章来源地址https://www.toymoban.com/news/detail-855711.html

import numpy as np

# 创建一个矩阵和一个向量
matrix = np.array([[1, 2, 3],
                   [4, 5, 6],
                   [7, 8, 9]])

vector = np.array([1, 2, 3])

print(f"矩阵:{matrix}")
print(f"向量:{vector}")

# 计算矩阵的一范数
matrix_l1_norm = np.linalg.norm(matrix, ord=1)
print(f"矩阵的一范数为:{matrix_l1_norm}")

# 计算矩阵的二范数
matrix_l2_norm = np.linalg.norm(matrix, ord=2)
print(f"矩阵的二范数为:{matrix_l2_norm}")

# 计算矩阵的无穷范数
matrix_inf_norm = np.linalg.norm(matrix, ord=np.inf)
print(f"矩阵的无穷范数为:{matrix_inf_norm}")

# 计算向量的一范数
vector_l1_norm = np.linalg.norm(vector, ord=1)
print(f"向量的一范数为:{vector_l1_norm}")

# 计算向量的二范数
vector_l2_norm = np.linalg.norm(vector, ord=2)
print(f"向量的二范数为:{vector_l2_norm}")

# 计算向量的无穷范数
vector_inf_norm = np.linalg.norm(vector, ord=np.inf)
print(f"向量的无穷范数为:{vector_inf_norm}")

到了这里,关于用python实现矩阵和向量的范数(包括一范数,二范数,无穷范数)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 矩阵的范数和特征值之间的关系

       参考: linear algebra - Why is the norm of a matrix larger than its eigenvalue? - Mathematics Stack Exchange

    2024年02月08日
    浏览(38)
  • OpenCV的函数normalize()的两个作用:调整矩阵的值范围(归一化处理)、规范化矩阵的范数为某个值

    OpenCV的函数normalize()的两个作用:调整矩阵的值范围(归一化处理)、规范化矩阵的范数为某个值 函数normalize()有两个原型: 原型一: 原型二: 原型一的适用对象是密集矩阵,通常我们的矩阵都是密集矩阵。 原型二的适用对象是稀疏矩阵,在这篇博文中暂不作介绍。 在介绍各参

    2024年02月06日
    浏览(42)
  • 【矩阵论】7. 范数理论——基本概念——向量范数与矩阵范数

    矩阵论的所有文章,主要内容参考北航赵迪老师的课件 [注]由于矩阵论对计算机比较重要,所以选修了这门课,但不是专业搞数学的,所以存在很多口语化描述,而且对很多东西理解不是很正确与透彻,欢迎大家指正。我可能间歇性忙,但有空一定会回复修改的。 矩阵论 1

    2023年04月23日
    浏览(43)
  • 计算方法 | 范数(向量:1范数、2范数、无穷范数;矩阵:行范数、列范数)

    0范数: 向量中非零元素的个数。 1范数: 为绝对值之和。 2范数: 通常意义上的模。 无穷范数:取向量的最大值。 行范数:矩阵中每行绝对值之和的最大值 列范数:矩阵中每列绝对值之和的最大值 范数对于数学的意义?1范数、2范数、无穷范数_yangpan011的博客-CSDN博客_无穷

    2024年02月15日
    浏览(41)
  • 矩阵分析与计算学习记录-向量范数与矩阵范数

    本章知识重点: 向量范数:定义、性质、等价性、分析性质 矩阵范数:定义、算子范数 矩阵范数与向量范数的相容性 矩阵的普半径及应用:普半径、矩阵序列及级数中的应用 矩阵的条件数及应用:矩阵的条件数、误差估计中的应用 范数,是具有“长度”概念的函数。 在线

    2024年02月05日
    浏览(51)
  • L1范数,L2范数,L2,1范数(向量范数、矩阵范数、正则化)

    参考文章如下:https://blog.csdn.net/lqzdreamer/article/details/79676305                          https://blog.csdn.net/lqzdreamer/article/details/79676305         一般常用范数来衡量向量,向量的Lp范数定义为:          Lp范数示意图:         从图中可以看出,p的取值在 [0,1) 之间,范数

    2023年04月09日
    浏览(41)
  • 向量与矩阵范数的详细解读

    L0范数:向量中非零元素的个数,也称为0范数 L1范数:为绝对值之和,也称为范数或者1范数 L2范数:通常意义上的模,也称为2范数 p范数:即向量元素绝对值的 p p p 次方和的 1 / p 1/p 1/ p 次幂 ∞ infty ∞ 范数:取向量的最大值 − ∞ -infty − ∞ 范数:取向量的最小值 假设有

    2024年02月09日
    浏览(41)
  • 矩阵和向量的各种范数(定义 + 例题)

    矩阵的不同范数的定义如下: 1. 1范数(L1范数):矩阵的每一列的绝对值之和中的最大值。 2. 2范数(L2范数):矩阵的特征值中的最大值的平方根。 3. 无穷范数:矩阵的每一行的绝对值之和中的最大值。 4. F范数(Frobenius范数):矩阵的每个元素的平方和的平方根。 对于向

    2024年02月05日
    浏览(42)
  • <3>【深度学习 × PyTorch】必会 线性代数 (含详细分析):点积 | 矩阵-向量积 | Hadamard积 | 矩阵乘法 | 范数/矩阵范数

      拍照的意义在于你按下快门的那一刻,万里山河的一瞬间变成了永恒。   🎯作者主页: 追光者♂🔥          🌸个人简介:   💖[1] 计算机专业硕士研究生💖   🌟[2] 2022年度博客之星人工智能领域TOP4🌟   🏅[3] 阿里云社区特邀专家博主🏅   🏆[4] CSDN-人工智能领域

    2024年02月05日
    浏览(58)
  • 深入理解深度学习——正则化(Regularization):作为约束的范数惩罚

    分类目录:《深入理解深度学习》总目录 考虑经过参数范数正则化的代价函数: J ~ ( θ ; X , y ) = J ( θ ; X , y ) + α Ω ( θ ) tilde{J}(theta;X, y) = J(theta;X, y) + alphaOmega(theta) J ~ ( θ ; X , y ) = J ( θ ; X , y ) + α Ω ( θ ) 回顾《拉格朗日乘子法(二):不等式约束与KKT条件》我们可以构

    2024年02月08日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包