【数值分析】用幂法计算矩阵的主特征值和对应的特征向量(附matlab代码)

这篇具有很好参考价值的文章主要介绍了【数值分析】用幂法计算矩阵的主特征值和对应的特征向量(附matlab代码)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

题目

用幂法计算下列矩阵的按模最大特征值及对应的特征向量

用幂法计算下列矩阵的主特征值及对应的特征向量,Matlab,# 数值分析,matlab,算法,幂法,特征值,特征向量

幂法

用幂法计算下列矩阵的主特征值及对应的特征向量,Matlab,# 数值分析,matlab,算法,幂法,特征值,特征向量

代码

%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% 简介:用幂法计算矩阵的主特征值和对应的特征向量
% 作者:不雨_亦潇潇
% 文件:mifa.m
% 日期:20221109
% 博客:https://blog.csdn.net/weixin_43470383
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
clc; clear all;
% A = [7 3 -2; 3 4 -1; -2 -1 3];
A = [3 -4 3; -4 6 3; 3 3 1];
u =[1; 1; 1];
err = 10^(-4);

% 第一次迭代
k = 1;
m0 = 1;
V =A*u;
m = max(V);
u = V/m;
disp('k=')
disp(k)
disp('V^T=')
disp(V')
disp('m=')
disp(m)
disp('u^T=')
disp(u')

while abs(m0-m)>err
    m0 = m;
    k = k+1;
    V =A*u;
    m = max(V); % V绝对值最大的分量
    u = V/m; % 规范化向量  
    disp('k=')
    disp(k)
    disp('V^T=')
    disp(V')
    disp('m=')
    disp(m)
    disp('u^T=')
    disp(u')
end

lambda = m0 % 最终得到的主特征值
vector = u % 最终得到的特征向量

题目1输出结果

k=
1
V^T=
8 6 0
m=
8
u^T=
1.0000 0.7500 0
k=
2
V^T=
9.2500 6.0000 -2.7500
m=
9.2500
u^T=
1.0000 0.6486 -0.2973
k=
3
V^T=
9.5405 5.8919 -3.5405
m=
9.5405
u^T=
1.0000 0.6176 -0.3711
k=
4
V^T=
9.5949 5.8414 -3.7309
m=
9.5949
u^T=
1.0000 0.6088 -0.3888
k=
5
V^T=
9.6041 5.8240 -3.7753
m=
9.6041
u^T=
1.0000 0.6064 -0.3931
k=
6
V^T=
9.6054 5.8187 -3.7857
m=
9.6054
u^T=
1.0000 0.6058 -0.3941
k=
7
V^T=
9.6056 5.8172 -3.7881
m=
9.6056
u^T=
1.0000 0.6056 -0.3944
k=
8
V^T=
9.6056 5.8168 -3.7887
m=
9.6056
u^T=
1.0000 0.6056 -0.3944
lambda =
9.6056
vector =
1.0000
0.6056
-0.3944

题目2输出结果

k=
1
V^T=
2 5 7
m=
7
u^T=
0.2857 0.7143 1.0000
k=
2
V^T=
1.0000 6.1429 4.0000
m=
6.1429
u^T=
0.1628 1.0000 0.6512
k=
3
V^T=
-1.5581 7.3023 4.1395
m=
7.3023
u^T=
-0.2134 1.0000 0.5669
k=
4
V^T=
-2.9395 8.5541 2.9268
m=
8.5541
u^T=
-0.3436 1.0000 0.3421
k=
5
V^T=
-4.0045 8.4010 2.3112
m=
8.4010
u^T=
-0.4767 1.0000 0.2751
k=
6
V^T=
-4.6047 8.7320 1.8451
m=
8.7320
u^T=
-0.5273 1.0000 0.2113
k=
7
V^T=
-4.9481 8.7432 1.6293
m=
8.7432
u^T=
-0.5659 1.0000 0.1864
k=
8
V^T=
-5.1387 8.8228 1.4886
m=
8.8228
u^T=
-0.5824 1.0000 0.1687
k=
9
V^T=
-5.2412 8.8359 1.4214
m=
8.8359
u^T=
-0.5932 1.0000 0.1609
k=
10
V^T=
-5.2969 8.8553 1.3814
m=
8.8553
u^T=
-0.5982 1.0000 0.1560
k=
11
V^T=
-5.3265 8.8606 1.3615
m=
8.8606
u^T=
-0.6011 1.0000 0.1537
k=
12
V^T=
-5.3425 8.8655 1.3502
m=
8.8655
u^T=
-0.6026 1.0000 0.1523
k=
13
V^T=
-5.3509 8.8673 1.3445
m=
8.8673
u^T=
-0.6034 1.0000 0.1516
k=
14
V^T=
-5.3555 8.8686 1.3413
m=
8.8686
u^T=
-0.6039 1.0000 0.1512
k=
15
V^T=
-5.3579 8.8692 1.3396
m=
8.8692
u^T=
-0.6041 1.0000 0.1510
k=
16
V^T=
-5.3592 8.8695 1.3387
m=
8.8695
u^T=
-0.6042 1.0000 0.1509
k=
17
V^T=
-5.3599 8.8697 1.3383
m=
8.8697
u^T=
-0.6043 1.0000 0.1509
k=
18
V^T=
-5.3602 8.8698 1.3380
m=
8.8698
u^T=
-0.6043 1.0000 0.1509
lambda =
8.8697
vector =
-0.6043
1.0000
0.1509文章来源地址https://www.toymoban.com/news/detail-790858.html

到了这里,关于【数值分析】用幂法计算矩阵的主特征值和对应的特征向量(附matlab代码)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 谈主成分分析/因子分析中的特征值“矩阵近似”

    主成分分析和因子分析是数据降维的常用手段,其中以特征值为载体,在不断降维“近似”原本的协方差矩阵。 CSDN中一些文章在介绍这个问题或者叫“特征值分解”时,讲得都比较学术化,今天用一个小例子,还是面向新人,来引导理解“特征值分解”和“矩阵近似”(图

    2024年02月05日
    浏览(45)
  • 【OpenCV4】计算对称矩阵特征值和特征向量 cv::eigen() 用法详解和代码示例(c++)

    解析: src:输入矩阵,只能是 CV_32FC1 或 CV_64FC1 类型的方阵(即矩阵转置后还是自己) eigenvalues:输出的特征值组成的向量,数据类型同输入矩阵,排列从大到小 eigenvectors:输出的特征向量组成的矩阵,数据类型同输入矩阵,每一行是一个特征向量,对应相应位置的特征值

    2024年02月13日
    浏览(46)
  • 数值线性代数:Arnoldi求解特征值/特征向量

    线性方程组求解 、 最小二乘法 、 特征值/特征向量求解 是(数值)线性代数的主要研究内容。 在力学、气象学、电磁学、金融等学科中,许多问题最终都归结为特征值、特征向量的求解。 ARPACK 使用 IRAM ( Implicit Restarted Arnoldi Method )求解大规模系数矩阵的部分特征值与特征向量

    2024年01月18日
    浏览(51)
  • 描述点云特征提取中法线和曲率计算、特征值分析、PFH、FPFH、3D Shape Context、Spin Image的算法原理

    法线和曲率计算 :点云法线和曲率是点云数据特征提取的基础,可以通过最小二乘拟合或基于协方差矩阵的方法计算。对于每个点,根据周围点的位置和构成法向量,可以计算出该点的法向量和曲率。 特征值分析(Eigenvalue Analysis) :特征值分析是一种方法,用于计算点云数

    2024年02月10日
    浏览(30)
  • 线性代数|证明:矩阵特征值的倒数是其逆矩阵的特征值

    性质 1 若 λ lambda λ 是 A boldsymbol{A} A 的特征值,当 A boldsymbol{A} A 可逆时, 1 λ frac{1}{lambda} λ 1 ​ 是 A − 1 boldsymbol{A}^{-1} A − 1 的特征值。 证明 因为 λ lambda λ 是 A boldsymbol{A} A 的特征值,所以有 p ≠ 0 boldsymbol{p} ne 0 p  = 0 使 A p = λ p boldsymbol{A} boldsymbol{p} = lambda

    2024年02月08日
    浏览(49)
  • 特征值和特征向量的解析解法--带有重复特征值的矩阵

    当一个矩阵具有重复的特征值时,意味着存在多个线性无关的特征向量对应于相同的特征值。这种情况下,我们称矩阵具有重复特征值。 考虑一个n×n的矩阵A,假设它有一个重复的特征值λ,即λ是特征值方程det(A-λI) = 0的多重根。我们需要找到与特征值λ相关的特征向量。 首

    2024年02月05日
    浏览(45)
  • MATLAB矩阵的特征值与特征向量

    设A是n阶方阵,如果存在常数λ和n维非零列向量x,使得等式Ax = λx 成立,则称λ为A的特征值,x是对应特征值λ的特征向量。 在MATLAB中,计算矩阵的特征值与特征向量的函数是eig,常用的调用格式有两种: E = eig(A):求矩阵A的全部特征向量值,构成向量E。 [X,D] = eig(A):

    2024年02月11日
    浏览(41)
  • 5.1 矩阵的特征值和特征向量

    学习特征值和特征向量的定义和性质,我会采取以下方法: 1. 学习线性代数基础知识:特征值和特征向量是线性代数中的重要概念,需要先掌握线性代数的基础知识,例如向量、矩阵、行列式、逆矩阵、转置、内积、外积等基本概念。 2. 学习特征值和特征向量的定义:特征

    2024年02月02日
    浏览(49)
  • 线性代数中矩阵的特征值与特征向量

    作者:禅与计算机程序设计艺术 在线性代数中,如果一个$ntimes n$的方阵$A$满足如下两个条件之一: $A$存在实数特征值,即$exists xneq 0:Ax=kx$,其中$kin mathbb{R}$; $lambda_{max}(A)neq 0$($lambda_{max}(A)$表示$A$的最大特征值),且$||x_{lambda_{max}(A)}||=sqrt{frac{lambda_{max}(A)}{lambda_{

    2024年02月08日
    浏览(52)
  • 线性代数(五) | 矩阵对角化 特征值 特征向量

    矩阵实际上是一种变换,是一种旋转伸缩变换(方阵) 不是方阵的话还有可能是一种升维和降维的变换 直观理解可以看系列超赞视频线性代数-哔哩哔哩_Bilibili 比如A= ( 1 2 2 1 ) begin{pmatrix}12\\\\21end{pmatrix} ( 1 2 ​ 2 1 ​ ) x= ( 1 2 ) begin{pmatrix}1\\\\2end{pmatrix} ( 1 2 ​ ) 我们给x左乘A实际

    2024年02月04日
    浏览(64)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包