几何与向量方法推导两角和差公式

这篇具有很好参考价值的文章主要介绍了几何与向量方法推导两角和差公式。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

几何方法是用锐角三角函数推广到所有角,向量方法是运用点积与叉积,另外附上两角和差公式的另外形式

1. sin、cos的两角和差公式推导

1.1 几何方法

已知两角 α 、 β \alpha、\beta αβ的任意三角函数,求 s i n α + β 与 c o s α + β sin_{\alpha+\beta}与cos_{\alpha+\beta} sinα+βcosα+β
这里我们且令OB=1
向量证明三角函数和差公式,线性代数,平面几何,线性代数,几何学
首先过点B向OC与OA作BD垂直于OA、BE垂直于OC
向量证明三角函数和差公式,线性代数,平面几何,线性代数,几何学
这时候,我们发现 γ = δ = 90 ° \gamma=\delta=90\degree γ=δ=90°,因此B、E、D、O四点共圆, ϵ = α \epsilon=\alpha ϵ=α
向量证明三角函数和差公式,线性代数,平面几何,线性代数,几何学
接下来就好办了过点E再向BD、OA作两条垂直向量证明三角函数和差公式,线性代数,平面几何,线性代数,几何学
推导过程:
B E = O B ∗ s i n β = s i n β O E = O B ∗ c o s β = c o s β ϵ = α D G = E F = B E ∗ s i n ϵ = s i n α s i n β B F = B E ∗ c o s ϵ = c o s α s i n β D F = G E = O E ∗ s i n α = s i n α c o s β O G = O E ∗ c o s α = c o s α c o s β O B = 1 s i n α + β = B D = D F + B F = s i n α c o s β + c o s α s i n β c o s α + β = O D = O G − D G = c o s α c o s β − s i n α s i n β 再推广一下: s i n α ± β = s i n α c o s β ± c o s α s i n β c o s α ± β = c o s α c o s β ∓ s i n α s i n β BE=OB*sin_{\beta}=sin_{\beta}\\ OE=OB*cos_{\beta}=cos_{\beta}\\ \epsilon=\alpha\\ DG=EF=BE*sin_{\epsilon}=sin_{\alpha}sin{\beta}\\ BF=BE*cos_{\epsilon}=cos_{\alpha}sin_{\beta}\\ DF=GE=OE*sin_{\alpha}=sin_{\alpha}cos_{\beta}\\ OG=OE*cos_{\alpha}=cos_{\alpha}cos_{\beta}\\ OB=1\\ sin_{\alpha+\beta}=BD=DF+BF=sin_{\alpha}cos_{\beta}+cos_{\alpha}sin_{\beta}\\ cos_{\alpha+\beta}=OD=OG-DG=cos_{\alpha}cos_{\beta}-sin_{\alpha}sin{\beta}\\ 再推广一下:\\ sin_{\alpha\pm\beta}=sin_{\alpha}cos_{\beta}\pm cos_{\alpha}sin_{\beta}\\ cos_{\alpha \pm \beta}=cos_{\alpha}cos_{\beta} \mp sin_{\alpha}sin{\beta} BE=OBsinβ=sinβOE=OBcosβ=cosβϵ=αDG=EF=BEsinϵ=sinαsinβBF=BEcosϵ=cosαsinβDF=GE=OEsinα=sinαcosβOG=文章来源地址https://www.toymoban.com/news/detail-588256.html

到了这里,关于几何与向量方法推导两角和差公式的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 空间解析几何 | 向量、数量积、向量积、混合积、距离公式

       注: 通过公式我们可以发现,两个向量的 数量积 就是一个 数量 。 数量积 又称为 点积 或者 内积 。 ex: 在直角坐标系 {O; i , j , k } 中,设 α = (a1, a2, a3), β = (b1, b2, b3),     α • β = (a1 i + a2 j + a3 k ) •  (b1 i + b2 j + b3 k ) = a1b1 + a2b2 + a3b3    即两向量的数量积之和等于它

    2023年04月09日
    浏览(33)
  • 向量点积公式推导(绝对尽量不含糊~~)

    先给个向量内积的定义,也叫向量点积  同时它还满足如下公式。   有了上面两个公式呢,就可以很方便地求出两个向量的夹角了,下面的定义3,其实就是根据上面的式(1)转换得到  比如 x=(1,0),y=(1, 1), 由定义1,[x, y]=1*1+0*1=1 ∣ x ∣∗∣ y ​∣=1∗ 那么cos()= [x, y]/( ∣ x ∣

    2024年02月08日
    浏览(36)
  • 一张图带你看完图论第五章(包含全部考点,含定义、定理、公式、推导证明和所有例题)

    付费大佬可以联系我把你们加入思维导图协作,看更加具体清楚地思维导图/敬礼 5.1 匹配 匹配(边独立集)M是G的不相邻边组成的边子集(无环) 饱和点 v是匹配M中某边的端点,则称v为M饱和点 完美匹配 G中每个顶点均为M饱和点,则M为G的完美匹配 最优匹配 在赋权完全偶图

    2024年02月09日
    浏览(54)
  • 【数学】n次方差公式及证明方法

    n次方差公式: a n − b n = ( a − b ) ( a n − 1 + a n − 2 b + a n − 3 b 2 + ⋅ ⋅ ⋅ + a b n − 2 + b n − 1 ) , n ∈ N ∗ a^{n}-b^{n}=(a-b)(a^{n-1}+a^{n-2}b+a^{n-3}b^{2}+···+ab^{n-2}+b^{n-1}),n in N^{*} a n − b n = ( a − b ) ( a n − 1 + a n − 2 b + a n − 3 b 2 + ⋅ ⋅ ⋅ + a b n − 2 + b n − 1 ) , n ∈ N ∗ 证

    2024年02月12日
    浏览(47)
  • 【应试技巧】格林公式记忆方法及简单推导

    视频讲解:格林公式记忆方法及简单推导 大家在学格林公式的时候会发现其实书本上给的形式并不容易记忆。 大家可能会产生下述的问题 忘记了逆时针和顺时针哪个是正方向? 忘记了P,Q该对谁求偏导? 忘记了求偏导以后是谁减谁? 本文分为两个部分,第一部分是将格林

    2024年02月05日
    浏览(38)
  • 人工智能_机器学习065_SVM支持向量机KKT条件_深度理解KKT条件下的损失函数求解过程_公式详细推导_---人工智能工作笔记0105

    之前我们已经说了KKT条件,其实就是用来解决 如何实现对,不等式条件下的,目标函数的求解问题,之前我们说的拉格朗日乘数法,是用来对 等式条件下的目标函数进行求解. KKT条件是这样做的,添加了一个阿尔法平方对吧,这个阿尔法平方肯定是大于0的,那么 可以结合下面的文章去

    2024年02月04日
    浏览(40)
  • 【有营养的算法笔记】基础算法 —— 推导证明前缀和与差分

    👑作者主页:@安 度 因 🏠学习社区:StackFrame 📖专栏链接:有营养的算法笔记 如果无聊的话,就来逛逛 我的博客栈 吧! 🌹 Hello,小伙伴们,好几天没有更新了,今天更了一篇比较“硬核的文章”。 主要内容为前缀和与差分算法的推导证明和代码实现。这篇文章博主还是画

    2024年01月21日
    浏览(46)
  • NW小世界网络公式推导

    假设网络中度数为 k k k 的节点有 N k N_k N k ​ 个,总共有 N N N 个节点,则度数为 k k k 的节点出现的概率可以表示为: P ( k ) = N k N P(k) = frac{N_k}{N} P ( k ) = N N k ​ ​ 在NW小世界网络中,每个节点有 k k k 条边,其中 k k k 是一个偶数, k / 2 k/2 k /2 条边与相邻节点相连,另外 k

    2024年02月05日
    浏览(85)
  • 华里士公式的推导及其推广

    华里士公式 I n = ∫ 0 π 2 sin ⁡ n x d x = ∫ 0 π 2 cos ⁡ n x d x = { n − 1 n n − 3 n − 2 ⋯ 2 3 n   i s   o d d , n − 1 n n − 3 n − 2 ⋯ 1 2 π 2 n   i s   e v e n Large begin{aligned} I_n = int_{0}^{frac{pi}{2}} sin^n{x} mathrm{d}x = int_{0}^{frac{pi}{2}} cos^n{x} mathrm{d}x = begin{cases} frac{n-1}{n} frac{n-3}

    2023年04月15日
    浏览(54)
  • 线性回归基本原理和公式推导

    回复我们公众号“1号程序员”的“E001”可以获取《BAT机器学习面试1000题》下载链接。[关注并回复:【E001】] 线性回归是一种监督式机器学习算法,它计算因变量与一个或多个独立特征之间的线性关系。当独立特征的数量为1时,被称为单变量线性回归;在存在多于一个特征

    2024年02月11日
    浏览(45)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包