矩阵的模和内积

这篇具有很好参考价值的文章主要介绍了矩阵的模和内积。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

模和内积

向量

设存在一个向量 X = { x 1 , x 2 , x 3 … x n } T X=\{x_1,x_2,x_3\dots x_n\}^T X={x1,x2,x3xn}T

P范数
∣ ∣ X ∣ ∣ P = ∑ i = 1 n ∣ x i ∣ p p ||X||_P=\sqrt[p]{\sum_{i=1}^{n}{|x_i|}^p} ∣∣XP=pi=1nxip
1范数(曼哈顿距离)
∣ ∣ X ∣ ∣ 1 = ∑ i = 1 n ∣ x i ∣ ||X||_1=\sum_{i=1}^n|x_i| ∣∣X1=i=1nxi
2范数(欧式距离)
∣ ∣ X ∣ ∣ = ∑ i = 1 n x i 2 ||X||=\sqrt{\sum_{i=1}^{n}{x_i}^2} ∣∣X∣∣=i=1nxi2
同时2范数记为向量的模,即 ∣ ∣ X ∣ ∣ ||X|| ∣∣X∣∣

正无穷范数
∣ ∣ X ∣ ∣ + ∞ = max ⁡ ( ∣ x i ∣ ) ||X||_{+\infty}=\max(|x_i|) ∣∣X+=max(xi)
负无穷范数
∣ ∣ X ∣ ∣ − ∞ = min ⁡ ( x i ) ||X||_{-\infty}=\min(x_i) ∣∣X=min(xi)
内积

设存在两个向量 X = { x 1 , x 2 , x 3 … x n } T , Y = { y 1 , y 2 , y 3 … y n } T X=\{x_1,x_2,x_3\dots x_n\}^T,Y=\{y_1,y_2,y_3\dots y_n\}^T X={x1,x2,x3xn}T,Y={y1,y2,y3yn}T,则向量 X , Y X,Y X,Y的内积记为 < X , Y > = X T Y <X,Y>=X^TY <X,Y>=XTY

其中 < X , a Y > = a < X , Y > , < X , Y + Z > = < X , Y > + < X , Z > <X,aY>=a<X,Y>,<X,Y+Z>=<X,Y>+<X,Z> <X,aY>=a<X,Y>,<X,Y+Z>=<X,Y>+<X,Z>

矩阵

设存在一个矩阵 A A A
A = [ a 11 a 12 ⋯ a 1 m a 21 a 22 ⋯ a 2 m ⋮ ⋮ ⋱ ⋮ a n 1 a n 2 ⋯ a n m ] A= \begin{bmatrix} a_{11}&a_{12}&\cdots& a_{1m}\\ a_{21}&a_{22}&\cdots &a_{2m}\\ \vdots&\vdots&\ddots&\vdots\\ a_{n1}&a_{n2}&\cdots &a_{nm} \end{bmatrix} A= a11a21an1a12a22an2a1ma2manm

F范数
∣ ∣ A ∣ ∣ F = ∑ i = 1 n ∑ j = 1 m ∣ a i j ∣ 2 ||A||_F=\sqrt{\sum_{i=1}^{n}\sum_{j=1}^{m}{|a_{ij}|}^2} ∣∣AF=i=1nj=1maij2
1范数(曼哈顿距离)
∣ ∣ A ∣ ∣ 1 = max ⁡ j ∑ i = 1 n ∣ a i j ∣ ||A||_1=\max_j\sum_{i=1}^n|a_{ij}| ∣∣A1=jmaxi=1naij
2范数(欧式距离)
∣ ∣ A ∣ ∣ 2 = λ m a x ∣ ∣ A − 1 ∣ ∣ 2 = 1 λ m i n \begin{aligned} ||A||_2&=\sqrt{\lambda_{max}}\\ ||A^{-1}||_2&=\frac{1}{\sqrt{\lambda_{min}}} \end{aligned} ∣∣A2∣∣A12=λmax =λmin 1
其中 λ m a x \lambda_{max} λmax为矩阵 A T A A^TA ATA的最大的特征值

无穷范数
∣ ∣ A ∣ ∣ ∞ = max ⁡ i ∑ j = 1 m ( ∣ a i j ∣ ) ||A||_{\infty}=\max_i\sum_{j=1}^{m}(|a_{ij}|) ∣∣A=imaxj=1m(aij)
内积

设存在两个矩阵 A n m , B n t A_{nm},B_{nt} Anm,Bnt,则矩阵 A , B A,B AB的内积记为 < A , B > = A T B <A,B>=A^TB <A,B>=ATB

满足以下条件的集合称为正交集
⟨ u i ∣ u j ⟩ = { 1 when  i = j , 0 when  i ≠ j . \left.\langle\mathbf{u}_i|\mathbf{u}_j\rangle=\left\{\begin{matrix}1&\text{when }i=j,\\0&\text{when }i\neq j.\end{matrix}\right.\right. uiuj={10when i=j,when i=j.
其中来自n维空间含有n个向量的正交集一定是该n纬空间的基,正交集一定是线性无关的

傅里叶表示

B = { u 1 , u 2 , … , u n } \mathcal{B}=\{\mathbf{u}_{1},\mathbf{u}_{2},\ldots,\mathbf{u}_{n}\} B={u1,u2,,un}是内积空间 V V V 的一个正交基,对每一个 x x x都可以表示为
x = ⟨ u 1 ∣ x ⟩ u 1 + ⟨ u 2 ∣ x ⟩ u 2 + ⋯ + ⟨ u n ∣ x ⟩ u n . \mathbf{x}=\left\langle\mathbf{u}_1|\mathbf{x}\right\rangle\mathbf{u}_1+\left\langle\mathbf{u}_2|\mathbf{x}\right\rangle\mathbf{u}_2+\cdots+\left\langle\mathbf{u}_n|\mathbf{x}\right\rangle\mathbf{u}_n. x=u1xu1+u2xu2++unxun.
这被称为 X X X的傅里叶表示,其 ξ i = ⟨ u i ∣ x ⟩ \xi_i=\left\langle\mathbf{u}_i|\mathbf{x}\right\rangle ξi=uix被称为 X X X B \mathfrak B B下的坐标,他们是傅立叶系数文章来源地址https://www.toymoban.com/news/detail-805899.html

到了这里,关于矩阵的模和内积的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 矩阵内积在深度学习中的潜在力量

    深度学习是人工智能领域的一个重要分支,它主要通过模拟人类大脑中的神经网络来实现智能化的计算和决策。在深度学习中,矩阵内积是一种非常重要的数学操作,它在各种算法中都有着重要的应用。本文将深入探讨矩阵内积在深度学习中的潜在力量,并提供详细的解释和

    2024年04月14日
    浏览(34)
  • matlab dot()函数求矩阵内积,三维 ,多维 详解

    matlab dot()函数求矩阵内积,三维 ,多维 详解   C=dot(A,b,X),这个参数X 只能取1,或者2。1  表示按列,2表示按行,如果没有参数。默认按列。   1)按列优先计算 这是一个1行3列的向量。 2)按行优先计算  C=dot(A,B,2) =[a1*b1+a2*b2+a3*b3 ;a4*b4+a5*b5+a6*b6 ]. 这是一个2行1列的向量 实例如

    2024年02月16日
    浏览(52)
  • 矩阵内积在计算几何中的重要性

    计算几何是一门研究在计算机科学、数学和几何中的几何问题的学科。计算几何问题涉及到点、线、多边形、凸包等几何对象的定义、计算和分析。矩阵内积是线性代数的基本概念,在计算几何中也具有重要的应用价值。在本文中,我们将讨论矩阵内积在计算几何中的重要性

    2024年04月14日
    浏览(50)
  • 矩阵内积在神经网络训练中的关键作用

    在过去的几年里,神经网络技术在人工智能领域取得了显著的进展。这主要归功于深度学习(Deep Learning)技术的发展,深度学习是一种通过多层神经网络自动学习表示的技术,它已经成功地应用于图像识别、自然语言处理、语音识别等多个领域。 在深度学习中,神经网络的训练

    2024年02月21日
    浏览(40)
  • 矩阵乘法的几种观点,内积外积的理解

    矩阵乘法核心思想(5):内积与外积 u u u 和 v v v 分别是 m × 1 m times 1 m × 1 的向量, u T v u^Tv u T v 是内积( 1 × 1 1 times1 1 × 1 也就是内积得到一个数)(如果看到 u v uv u v 也是内积的意思), u v T uv^T u v T 是外积( m × m m times m m × m ); 秩1矩阵是构建任何矩阵完美的基础砖块

    2024年02月08日
    浏览(38)
  • Python求矩阵的内积、外积、克罗内克直积、Khatri-Rao积

    线性代数研究的核心对象是矩阵,所谓矩阵就是由 m m m 行 n n n 列的数组成的一个举行的数阵,从编程的角度理解,就是二维数组。 作为一种特殊的代数结构,需要为矩阵引入特殊的计算方法,其中矩阵加法、减法相对来说比较直观,而乘法比较复杂,矩阵乘法的定义为 (

    2024年02月08日
    浏览(34)
  • 线性代数的学习和整理23:用EXCEL和python 计算向量/矩阵的:内积/点积,外积/叉积

      目录 1 乘法 1.1 标量乘法(中小学乘法) 1.1.1 乘法的定义 1.1.2 乘法符合的规律 1.2 向量乘法 1.2.1 向量:有方向和大小的对象 1.2.2 向量的标量乘法 1.2.3 常见的向量乘法及结果 1.2.4 向量的其他乘法及结果 1.2.5 向量的模长(长度) 模长的计算公式 1.2.6 距离 2 向量的各种乘法 2

    2024年01月23日
    浏览(51)
  • Java 取模和取余

    Java 取余和取模都是计算一个整数除以另一个整数后所得到余数。计算原理如下: 取余运算符 % 表示求余数运算,计算公式为 a % b = r ,其中 a 和 b 分别表示被除数和除数, r 表示所得到的余数。这个运算符将 a 除以 b ,并返回余数 r 。需要注意的是,如果 a 符号为正,则

    2024年02月05日
    浏览(33)
  • 7-2 数论中的模幂运算

    欧拉函数法可以解决模幂运算 给定伪代码的思想

    2024年02月05日
    浏览(38)
  • 用浅薄的模电知识对INA199系列差放关于电流采样的说明

    (6条消息) 通过差分电路和采样电阻对电流进行采集----基于INA199_懒人在行动的博客-CSDN博客  他这玩意儿什么意思呢?首先R1就是那图里的1MΩ(datasheet里可知),R3即输入电阻,INA199X1/X2/X3几个型号的输入电阻是不一样的,所以R1/R3值也不一样,这个比值实际上就是这个型号的

    2024年02月16日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包