向量的内积外积哈达玛积

这篇具有很好参考价值的文章主要介绍了向量的内积外积哈达玛积。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.向量的内积

1.1 定义

从代数角度看,先对两个数字序列中的每组对应元素求积,再对所有积求和,结果即为点积。从几何角度看,点积则是两个向量的长度与它们夹角余弦的积。

表示形式: A T B A^TB ATB < A , B > <A,B> <A,B>

1.2 求解方式

代数形式

向量的内积(点乘/数量积)。对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,如下所示,对于向量a和向量b:

a ⃗ = [ a 1 , a 2 , . . . a n ] \vec a=[a_1,a_2,...a_n] a =[a1,a2,...an] b ⃗ = [ b 1 , b 2 , . . . b n ] \vec b=[b_1,b_2,...b_n] b =[b1,b2,...bn]

a和b的点积公式为:
a ⃗ ⋅ b ⃗ = ∑ i = 1 n a i b i = a 1 b 1 + a 2 b 2 + . . . + a n b n \vec a·\vec b=\sum\limits^n\limits_{i=1}a_ib_i=a_1b_1+a_2b_2+...+a_nb_n a b =i=1naibi=a1b1+a2b2+...+anbn
这里要求一维向量a和向量b的行列数相同。注意:点乘的结果是一个标量(数量而不是向量)

举个栗子:

两个三维向量 [ 1 , 3 , − 5 ] \left[1,3,-5\right] [1,3,5] [ 4 , − 2 , − 1 ] [4,−2,−1] [4,2,1]的点积是:

[ 1 , 3 , − 5 ] ⋅ [ 4 , − 2 , − 1 ] = 1 ∗ 4 + 3 ∗ ( − 2 ) + ( − 5 ) ∗ ( − 1 ) = 4 − 6 + 5 = 3 \left[1,3,-5\right]·[4,−2,−1]=1*4+3*(-2)+(-5)*(-1)=4-6+5=3 [1,3,5][4,2,1]=14+3(2)+(5)(1)=46+5=3

几何形式

在欧几里得空间中,点积可以直观地定义为:

a ⃗ ⋅ b ⃗ = ∣ a ⃗ ∣   ∣ b ⃗ ∣ cos ⁡ θ    \vec{a} \cdot \vec{b} = |\vec{a}| \, |\vec{b}| \cos \theta \; a b =a b cosθ

这里 ∣ x ⃗ ∣ |\vec{x}| x 表示 x ⃗ \vec{x} x 的模(长度), θ \theta θ 表示两个向量之间的角度。

这样,两个互相垂直的向量的点积总是零。若 a ⃗ \vec{a} a b ⃗ \vec{b} b 都是单位向量(长度为1),它们的点积就是它们的夹角的余弦。那么,给定两个向量,它们之间的夹角可以通过下列公式得到:
cos ⁡ θ = a ⋅ b ∣ a ⃗ ∣   ∣ b ⃗ ∣ \cos{\theta} = \frac{\mathbf{a \cdot b}}{|\vec{a}| \, |\vec{b}|} cosθ=a b ab

1.3 几何意义

A ⃗ ⋅ B ⃗ = ∣ A ⃗ ∣   ∣ B ⃗ ∣ cos ⁡ θ    \vec{\mathbf A} \cdot \vec{\mathbf B} = |\vec{\mathbf A}| \, |\vec{\mathbf B}| \cos \theta \; A B =A B cosθ

欧氏空间中向量 A \mathbf A A在向量 B \mathbf B B上的标量投影是指: A B = ∣ A ∣ cos ⁡ θ A_B=|\mathbf A|\cos\theta AB=Acosθ

哈达玛积,机器学习,线性代数,矩阵

直观上看是:向量 A \mathbf A A在向量 B \mathbf B B的投影与 B \mathbf B B的模相乘之后的大小。

两个向量越是相似,内积就越大(夹角就越小)。

Q:为什么在度量两个向量的相似度时,选择使用cos值,而不是向量的内积呢?

A:cos有归一化的作用

2.向量的外积

2.1 定义

两个向量的外积,又叫叉乘、叉积向量积,其运算结果是一个向量而不是一个标量。并且两个向量的外积与这两个向量组成的坐标平面垂直。

向量ab的外积a×b是一个向量,其长度等于|a×b| = |a||b|sin∠(a,b),其方向正交于ab。并且,(a,b,a×b)构成右手系。

对于向量a和向量b

a ⃗ = [ x 1 , y 1 , z 1 ] , b ⃗ = [ x 2 , y 2 , z 2 ] \vec a=[x_1,y_1,z_1], \vec b=[x_2,y_2,z_2] a =[x1,y1,z1],b =[x2,y2,z2]

向量a和向量b外积公式为:
a × b = ∣ i j k x 1 y 1 z 1 x 2 y 2 z 2 ∣ = ( y 1 z 2 − y 2 z 1 ) i − ( x 1 z 2 − x 2 z 1 ) j + ( x 1 y 2 − x 2 y 1 ) k a \times b = \left| \begin{array}{cccc} i & j & k \\ x_1 & y_1 & z_1\\ x_2 & y_2 & z_2 \end{array} \right|=(y_1z_2-y_2z_1)i-(x_1z_2-x_2z_1)j+(x_1y_2-x_2y_1)k a×b= ix1x2jy1y2kz1z2 =(y1z2y2z1)i(x1z2x2z1)j+(x1y2x2y1)k
其中 i = ( 1 , 0 , 0 ) , j = ( 0 , 1 , 0 ) , k = ( 0 , 0 , 1 ) i=(1,0,0), j=(0,1,0), k=(0,0,1) i=(1,0,0),j=(0,1,0),k=(0,0,1), 根据 i 、 j 、 k i、j、k ijk间关系,有:
a × b = ( y 1 z 2 − y 2 z 1 ,   − ( x 1 z 2 − x 2 z 1 ) , x 1 y 2 − x 2 y 1 ) a \times b = (y_1z_2-y_2z_1,\ -(x_1z_2-x_2z_1),\quad x_1y_2-x_2y_1) a×b=(y1z2y2z1, (x1z2x2z1),x1y2x2y1)

2.2 向量外积的几何意义

在三维几何中,向量a和向量b的外积结果是一个向量,有个更通俗易懂的叫法是法向量,该向量垂直于a和b向量构成的平面。
哈达玛积,机器学习,线性代数,矩阵

在二维空间中,外积还有另外一个几何意义就是:|a×b|在数值上等于由向量a和向量b构成的平行四边形的面积。

3.向量的哈达玛积

两个相同形状的矩阵,输出是具有同样形状的、各个位置的元素等于两个输入矩阵相同位置元素的乘积的矩阵。

若两个矩阵AB具有相同的维度 m × n m\times n m×n,则它们的阿达玛乘积$ A\circ B$是一个具有相同维度的矩阵,其元素值为:
( A ∘ B ) i j = ( A ) i j ( B ) i j . {\displaystyle (A\circ B)_{ij}=(A)_{ij}(B)_{ij}.} (AB)ij=(A)ij(B)ij.

4.总结

  • 向量内积的结果为标量
  • 向量内积的几何意义:向量 A \mathbf A A在向量 B \mathbf B B的投影与 B \mathbf B B的模相乘之后的大小。
  • 向量a和向量b的外积结果是一个向量(法向量),该向量垂直于a和b向量构成的平面。
  • 哈达玛积:基于矩阵(两个矩阵的维度完全相同) 对应位置元素相乘(卷积) element-wise product

本文仅作为个人学习记录所用,不作为商业用途,谢谢理解。

参考:https://zhuanlan.zhihu.com/p/348308540文章来源地址https://www.toymoban.com/news/detail-719045.html

到了这里,关于向量的内积外积哈达玛积的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习-线性代数-1-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月10日
    浏览(44)
  • 机器学习-线性代数-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月09日
    浏览(39)
  • 机器学习-线性代数-3-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月15日
    浏览(26)
  • 机器学习-线性代数-2-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月11日
    浏览(31)
  • 机器学习——线性代数中矩阵和向量的基本介绍

    矩阵的基本概念(这里不多说,应该都知道) 而向量就是一个特殊的矩阵,即向量只有一列,是个n*1的矩阵 注 :一般矩阵用大写字母表示,向量用小写字母表示 先从简单开始,即一个矩阵和一个向量相乘的运算 矩阵相乘的结果的维度为 m*k 矩阵乘法满足结合律不满足交换律

    2024年02月21日
    浏览(35)
  • 点积、内积、外积、叉积、张量积——概念区分

    找 张量积 概念的时候,被各种野路子博客引入的各种“积”搞混了,下面仅以Wikipedia为标准记录各种积的概念。 https://en.wikipedia.org/wiki/Dot_product 在数学中,点积(Dot product)或标量积(scalar product)是一种代数运算,它取两个 相等长度的数字序列 (通常是坐标向量),并返回一个数

    2024年02月05日
    浏览(33)
  • 矩阵内积、外积(克罗内克积)和Hadamard积

    1.矩阵的内积: 记作A,B 就是对应项相乘求和。 2.矩阵外积 :(或向量外积/叉积/向量积),外积是一种特殊的 克罗内克积 ,克罗内克积是两个任意大小的矩阵间的运算,结果是一个矩阵,记作 3.矩阵的hadamard积 :哈达玛积(Hadamard product)是矩阵的一类运算,若A=(aij)和B=(bij)是

    2024年02月08日
    浏览(29)
  • 矩阵乘法的几种观点,内积外积的理解

    矩阵乘法核心思想(5):内积与外积 u u u 和 v v v 分别是 m × 1 m times 1 m × 1 的向量, u T v u^Tv u T v 是内积( 1 × 1 1 times1 1 × 1 也就是内积得到一个数)(如果看到 u v uv u v 也是内积的意思), u v T uv^T u v T 是外积( m × m m times m m × m ); 秩1矩阵是构建任何矩阵完美的基础砖块

    2024年02月08日
    浏览(27)
  • Python求矩阵的内积、外积、克罗内克直积、Khatri-Rao积

    线性代数研究的核心对象是矩阵,所谓矩阵就是由 m m m 行 n n n 列的数组成的一个举行的数阵,从编程的角度理解,就是二维数组。 作为一种特殊的代数结构,需要为矩阵引入特殊的计算方法,其中矩阵加法、减法相对来说比较直观,而乘法比较复杂,矩阵乘法的定义为 (

    2024年02月08日
    浏览(25)
  • LA@向量运算@内积@向量正交

    高等代数中,内积是较为抽象的概念,这里我们仅讨论内积的简化版本,也是具象化的版本 内积是一个二元实函数,它满足内积的抽象定义(下面的性质一节提到的4个条件), 符号说明 两个向量 a = ( a 1 , ⋯   , a n ) T bold{a}=(a_1,cdots,a_n)^T a = ( a 1 ​ , ⋯ , a n ​ ) T , b = ( b 1 , ⋯  

    2024年02月11日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包