向量点积公式推导(绝对尽量不含糊~~)

这篇具有很好参考价值的文章主要介绍了向量点积公式推导(绝对尽量不含糊~~)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一。向量点积公式

先给个向量内积的定义,也叫向量点积

向量点积公式推导(绝对尽量不含糊~~)

 同时它还满足如下公式。

 向量点积公式推导(绝对尽量不含糊~~)

有了上面两个公式呢,就可以很方便地求出两个向量的夹角了,下面的定义3,其实就是根据上面的式(1)转换得到

向量点积公式推导(绝对尽量不含糊~~)

 比如x=(1,0),y=(1, 1),

由定义1,[x, y]=1*1+0*1=1

x∣∗∣y​∣=1∗

那么cos()=[x, y]/(x∣∗∣y​∣)=1/

 就是45度啦

可以看出求夹角非常地方便。式1中的公式它为什么能成立呢,把它细化一下,就是下式为什么能成立呢?

x1x2+y1y2+...+xnyn=∣x∣∗∣y​∣∗ cos()    -----------------式(2)

 二。分析

先说明一点,我们最终要证的就是式(2):x1x2+y1y2+...+xnyn=∣x∣∗∣y​∣∗cos()

1.式2右半边的理解

式(2)的右边的含义很明确,向量的内积就是向量y在向量x上的投影长度(即 ∣y​∣*cos() )与x的模相乘,

当然反过来也是一样,也可以说是向量x在向量y上的投影长度 (即 ∣x∣*cos() )与y的模相乘,就看你想把cos ()跟谁结合了。

注意,这才是向量点积的真正含义!

2.式2左边半

没啥好说的,定义1已经说了,咱定义了它就是向量的内积。但是如果我们又定义了式(2)的右边也是向量内积,所以说左边等于右边,那这肯定是扯淡~~。

同理,如果有人说定义不用证明,那也是在扯淡。

问题是左边真的等于右边吗?下面先给出二维平面上的证明。

三。二维平面上的证明

1.复习一下向量加法

向量点积公式推导(绝对尽量不含糊~~)

 先复习一下,一个向量可以分解为延着x坐标和延着y坐标的两个分向量的和,如上图,因为 向量点积公式推导(绝对尽量不含糊~~)

  为了避免混淆,把式(2)先改一下,改为a向量和b向量,并且改为2维平面的情况

 向量点积公式推导(绝对尽量不含糊~~) =∣a∣∗∣b​∣∗cos()       --------式(3)

注:式(3)的ax的意思是向量a的x分量值,是一个值,不是向量(它上面没有箭头,也没有加粗,下面注意区别)

2.证明

接下来,我们先从式(3)左边入手,还是右边入手呢?都不。。。我们得从向量点积的真正含义入手,上面分析过了,见二(1)。现在为了方便书写,就用一个实心点表示向量点积符号,即:,并且注意,跟据它的含义,它是等于 ∣a∣∗∣b​∣∗cos()的!,所以我们现在认可的是式3的右边,我们暂不认何左边。

向量点积公式推导(绝对尽量不含糊~~)            ------式(4)

向量点积公式推导(绝对尽量不含糊~~)      ------式(5)    因为符合分配律

接下来,由于点积的含义

,因为这里的θ角是延着x轴、y轴的两个向量的夹角,是90度,cos(θ)就是0了

同理

所以:

向量点积公式推导(绝对尽量不含糊~~),因为θ1、θ2都是0度,cos值就是1啦。

最终,成功证明了:

向量点积公式推导(绝对尽量不含糊~~)

3.向量点积符合分配律?

(1)质疑

等等,其实并没有证明结束,上面的证明用了一个性质,是关键的环节,但是我们其实完全不知道它对不对!就是说向量点积符合分配律,从而实现从式4到式5的转变

向量点积公式推导(绝对尽量不含糊~~)      ------式(4)

 向量点积公式推导(绝对尽量不含糊~~)      ------式(5)

 我们知道,四则运算是符合分配律的,但是我不准备证明这玩意儿,也不准备质疑它。但是你不能说现在我们随意新定义了一种运算,然后我们就说它符合分配律,那肯定是扯淡!

(2)扯淡环节

如果你不信的话,下面插播一段扯淡环节,我现在定义一个运算符,叫做“绝对乘”,符号我想好了,就是:|*|,就是两个竖杠中间夹了一个乘号(星号),为了好识别我把我发明的符号加个粗标个红色,它的运算方法是,两个数做绝对乘,就是把两个数的绝对值乘起来,接下来我说它符合分配律!来验证一下:

0|*|10=(-1+1)|*|10=-1|*|10+1|*|10=|-1|*|10|+|1|*|10|=20,

但是不对啊,0|*|10=|0|*|10|=0啊,完了,它明显不符合分配律!

(3)证明

如果向量点积真不符合分配律,那不完犊子了,没法证了。所以接下来我们就证明一下(或者说验证一下,实力有限,可能不是完美证明),它倒底符不符合分配律。

我们先简化一下,就证下面这个就行了,因为如果b可以分开来乘了,a自然也可以分开来乘了。 

注意,我们这里其实证的并不是向量点积是否符合分配律,因为向量bx和向量by分别是延着x轴、y轴方向的,这是限制条件!并且在2.证明中,我们也是基于这个限制条件的,所以我们只要证明这限制条件下的分配律成立,其实就可以了。

向量点积公式推导(绝对尽量不含糊~~)     ----式(6)

 接下来,画图证明:

AB就是向量a,AC就是向量b,我们现在要证明的是向量b和向量a的点积等于向量bx和向量a的点积加上向量by和向量a的点积,证明了它,就证明式6成立。

向量点积公式推导(绝对尽量不含糊~~)

 然后仍然是从向量点积的含义入手,我们唯一能确定的东西就是它的含义,因为它是我们新定义一个运算符!(在推导式3的时候,我们就可以这么设想~~)。

向量a和向量b的点积就是向量AC在向量AB上的投影即AF的长度乘上AB的长度。

向量AC的x分量就是向量AD,向量AD与向量AB的点积就是AC在AB上的投影即AG乘上AB

同量,向量AC的y分量就是向量AE,AE与AB的点积就是AH乘AB

即:

三者都有AB,所以如果我们能证明:AF=AG+AH,那就可以推导出式6了,即:

向量点积公式推导(绝对尽量不含糊~~)

再观察一下上图:

AF=AH+HF

那只要证明AG=HF,就OK了。现在加一点标记,标了3个角,它们的角度相同,都等于向量a和向量b的夹角θ,又标了一个点I(箭头处):

向量点积公式推导(绝对尽量不含糊~~)

 AG=AD*cos(θ)

HF=EI*cos(θ)+IC*cos(θ)=EC*cos(θ)=AD*cos(θ)

完事儿了,AG=HF!

所以最终我们推导出了公式6!即向量点积公式推导(绝对尽量不含糊~~)

所以向量点积是满足分配律的!2.证明的步骤完全成立!

注:这个图可能随着不同的角度会有一些变化,但是证明的方法都是一样的。


(4)那没限制条件的分配律还能证吗?

虽然说有限制条件的分配律证明了,就可以推导向量点积公式了,但是不禁好奇,没限制条件的呢,比如下式是否成立,向量c和向量d没有限制条件。

向量点积公式推导(绝对尽量不含糊~~)    ------式(7)

向量点积公式推导(绝对尽量不含糊~~)   ----式(8),因为向量cx加向量dx是延着x轴方向的,向量cy加向量dy是延着y轴方向的,所以可以分开来乘,((3)里面已经证过了)

向量点积公式推导(绝对尽量不含糊~~)      -----式(9) 这一步的展开毫无疑问,从向量点积的含义上可以直接证明,单独看一项就是下式。

向量点积公式推导(绝对尽量不含糊~~)

向量cx和dx是同方向的,其向量和的长度就相于两个向量长度的和,然后它们在a上的投影都是乘以同一个cos(θ),那肯定是相等的了,不详写了。

继续接式(9),把它重新组合一下,向量cx和向量cy合一起,向量dx和向量dy合一起,得到:

向量点积公式推导(绝对尽量不含糊~~)   -------式(10)

证明完毕!

如果这里要问一下,为啥能合起来,即下式为啥成立?

向量点积公式推导(绝对尽量不含糊~~)

这个式子就是之前的式(6)啊,只是把等号左右两边交换了下而已,把式(6)再贴一下给你看看:

 向量点积公式推导(绝对尽量不含糊~~)     ----式(6)

所以,由式(8),(9),(10)得到,向量点积真的符合分配律!

四。多维空间上还是否成立?

其实2.证明里的步骤完全可以写成多维的形式,比如加一维,写成下面这样,然后还是拆开乘就行了

向量点积公式推导(绝对尽量不含糊~~)

关键是多维空间的向量点积是否符合分配律?答案应该(也许可能大概)是符合啊,你看我下面扯的对不对啊。

二维空间我们证过了,符合分配律,所以下式是成立的,向量bx和向量byz是在一个平面上的

向量点积公式推导(绝对尽量不含糊~~)

 然后:

向量点积公式推导(绝对尽量不含糊~~)

所以下式成立:

向量点积公式推导(绝对尽量不含糊~~)

所以在3维平面也符合分配律!从而3维平面上的点积公式3也成立!

那么可能又问,那n维空间呢?其实完全可以把上面这一段改一下,改为证明:假设n维空间向量点积符合分配律,那么n+1维空间是否还符合。(当然是OK的喽,我就懒得再写一遍了)

然后由于2维空间符合分配律,由数学归纳法得知,任意n维空间都符合分配律。从而再由2.证明改一下得出任意n维空间都符合向量点积公式3文章来源地址https://www.toymoban.com/news/detail-475715.html

到了这里,关于向量点积公式推导(绝对尽量不含糊~~)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线性代数 --- 向量的内积(点积)(个人学习笔记)

    向量与向量的乘法 - 内积         两个向量的内积,也叫点积(但在我们这个笔记的前半部分,我们说的,或者用到的更多的应该是点积),他的计算方式是两个同维度向量(例如两个n维向量)的内部元素从1到n, 逐一相乘再相加后的累加和 ,得到的是一个数。 注意,

    2023年04月08日
    浏览(79)
  • Python实现向量、矩阵运算(dot点积运算)

    1.点积运算概念 点积运算是参与运算的两向量各对应位置上元素相乘后,再将各乘积相加。 两个向量a = [a1, a2,…, an]和b = [b1, b2,…, bn]的点积定义为: a·b=a1b1+a2b2+……+anbn。 . 使用矩阵乘法,点积还可以写为:a·b=(a^T )*b // 这里的a^T指示矩阵a的转置。 numpy库的使用:https:

    2024年02月02日
    浏览(37)
  • 线性代数的学习和整理23:用EXCEL和python 计算向量/矩阵的:内积/点积,外积/叉积

      目录 1 乘法 1.1 标量乘法(中小学乘法) 1.1.1 乘法的定义 1.1.2 乘法符合的规律 1.2 向量乘法 1.2.1 向量:有方向和大小的对象 1.2.2 向量的标量乘法 1.2.3 常见的向量乘法及结果 1.2.4 向量的其他乘法及结果 1.2.5 向量的模长(长度) 模长的计算公式 1.2.6 距离 2 向量的各种乘法 2

    2024年01月23日
    浏览(51)
  • 华里士公式的推导及其推广

    华里士公式 I n = ∫ 0 π 2 sin ⁡ n x d x = ∫ 0 π 2 cos ⁡ n x d x = { n − 1 n n − 3 n − 2 ⋯ 2 3 n   i s   o d d , n − 1 n n − 3 n − 2 ⋯ 1 2 π 2 n   i s   e v e n Large begin{aligned} I_n = int_{0}^{frac{pi}{2}} sin^n{x} mathrm{d}x = int_{0}^{frac{pi}{2}} cos^n{x} mathrm{d}x = begin{cases} frac{n-1}{n} frac{n-3}

    2023年04月15日
    浏览(57)
  • 线性回归基本原理和公式推导

    回复我们公众号“1号程序员”的“E001”可以获取《BAT机器学习面试1000题》下载链接。[关注并回复:【E001】] 线性回归是一种监督式机器学习算法,它计算因变量与一个或多个独立特征之间的线性关系。当独立特征的数量为1时,被称为单变量线性回归;在存在多于一个特征

    2024年02月11日
    浏览(46)
  • NW小世界网络公式推导

    假设网络中度数为 k k k 的节点有 N k N_k N k ​ 个,总共有 N N N 个节点,则度数为 k k k 的节点出现的概率可以表示为: P ( k ) = N k N P(k) = frac{N_k}{N} P ( k ) = N N k ​ ​ 在NW小世界网络中,每个节点有 k k k 条边,其中 k k k 是一个偶数, k / 2 k/2 k /2 条边与相邻节点相连,另外 k

    2024年02月05日
    浏览(88)
  • <3>【深度学习 × PyTorch】必会 线性代数 (含详细分析):点积 | 矩阵-向量积 | Hadamard积 | 矩阵乘法 | 范数/矩阵范数

      拍照的意义在于你按下快门的那一刻,万里山河的一瞬间变成了永恒。   🎯作者主页: 追光者♂🔥          🌸个人简介:   💖[1] 计算机专业硕士研究生💖   🌟[2] 2022年度博客之星人工智能领域TOP4🌟   🏅[3] 阿里云社区特邀专家博主🏅   🏆[4] CSDN-人工智能领域

    2024年02月05日
    浏览(58)
  • 贝叶斯分类器(公式推导+举例应用)

    引言 在机器学习的世界中,有一类强大而受欢迎的算法——贝叶斯分类器,它倚仗着贝叶斯定理和朴素的独立性假设,成为解决分类问题的得力工具。这种算法的独特之处在于其对概率的建模,使得它在面对不确定性和大规模特征空间时表现卓越。 本文将深入探讨贝叶斯分

    2024年01月21日
    浏览(51)
  • 西瓜书公式(10.24)的推导

    在西瓜书 10.4 节 “核化线性降维” 中,引入了一个映射函数 ϕ phi ϕ ,其作用是将样本点 x i x_i x i ​ 映射到高维特征空间中,即 z i = ϕ ( x i ) z_i=phi(x_i) z i ​ = ϕ ( x i ​ ) 由前文中的推导可以得到 式(10.21) 和 式(10.22) ( ∑ i = 1 m ϕ ( x i ) ϕ ( x i ) T ) w j = λ j w j (10.21) left(s

    2024年02月09日
    浏览(39)
  • PnP算法详解(超详细公式推导)

    博主缺粉丝希望大家能给个关注!!! PnP(Perspective-n-Point)是求解3D到2D点的对应方法。它描述了当知道n个3D空间点及其位置,如何估计相机的位姿。如果两张图像中的一张特征点3D位置已知,那么至少需要3个点对(以及至少一个额外验证点验证结果)就可以计算相机的运动。 P

    2024年02月03日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包