最小二乘估计理论

这篇具有很好参考价值的文章主要介绍了最小二乘估计理论。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

模型

不需输入输出为随机过程,求最优权向量使得输出估计结果的样本均方误差最小
b ^ ⃗ H = w ⃗ H A H { b ^ H = [ d ^ ( M ) d ^ ( M + 1 ) ⋯ d ^ ( N ) ] A H = [ u ( M ) u ( M + 1 ) ⋯ u ( N ) ] = [ u ( M ) u ( M + 1 ) ⋯ u ( N ) u ( M − 1 ) u ( M ) ⋯ u ( N − 1 ) ⋮ ⋮ ⋱ ⋮ u ( 1 ) u ( 2 ) ⋯ u ( N − M + 1 ) ] w = [ w 0 w 1 ⋯ w M − 1 ] H m i n { J } { e = b − b ^ J = e H e \begin {align} &\vec{\hat{b}}^H=\vec{w}^HA^H \\ &\left\{\begin{aligned} \hat{b}^H&=\begin{bmatrix} \hat{d}(M)&\hat{d}(M+1)&\cdots&\hat{d}(N) \end{bmatrix} \\ A^H&=\begin{bmatrix} u(M)&u(M+1)&\cdots&u(N)\end{bmatrix}\\ &=\begin{bmatrix} u(M)&u(M+1)&\cdots&u(N)\\ u(M-1)&u(M)&\cdots&u(N-1)\\ \vdots&\vdots&\ddots&\vdots\\ u(1)&u(2)&\cdots&u(N-M+1)\\ \end{bmatrix}\\ w&=\begin{bmatrix} w_0 & w_1 &\cdots &w_{M-1} \end{bmatrix} ^H\\ \end{aligned} \right.\\ &min\{J\}\\ &\left\{\begin{aligned} &e=b-\hat{b} \\ &J=e^He \end{aligned} \right. \end {align} b^ H=w HAH b^HAHw=[d^(M)d^(M+1)d^(N)]=[u(M)u(M+1)u(N)]= u(M)u(M1)u(1)u(M+1)u(M)u(2)u(N)u(N1)u(NM+1) =[w0w1wM1]Hmin{J}{e=bb^J=eHe

方法

最优权向量满足确定性正则方程:
A H A w ^ = A H b A^HA\hat{w}=A^Hb AHAw^=AHb

算法

基于SVD的LS算法

LS最优权重仅与数据矩阵 A A A的奇异值和特征向量有关,故求得数据矩阵的奇异值和特征向量即可求得最有权重。
{ w ^ = ∑ i = 1 K ( x i ⃗ H θ ⃗ σ i 2 ) x i ⃗ θ ⃗ = A H b \begin{align} \left\{ \begin{aligned} &\hat{w}=\sum\limits_{i=1}^{K}(\frac{\vec{x_i}^H\vec{\theta}}{\sigma_i^2})\vec{x_i}\\ &\vec{\theta} = A^Hb \end{aligned} \right. \end{align} w^=i=1K(σi2xi Hθ )xi θ =AHb
关于 A H A A^HA AHA是否奇异分类讨论:
{ 非奇异 K = M : w ^ = ∑ i = 1 M ( x i ⃗ H θ ⃗ σ i 2 ) x i ⃗ 奇异 K < M : w ^ = ∑ i = 1 K ( x i ⃗ H θ ⃗ σ i 2 ) x i ⃗ ( 加入最小范数条件使得有唯一解 ) \begin{align} \left\{ \begin{aligned} 非奇异K=M:&\hat{w}=\sum\limits_{i=1}^{M}(\frac{\vec{x_i}^H\vec{\theta}}{\sigma_i^2})\vec{x_i}\\ 奇异K<M:&\hat{w}=\sum\limits_{i=1}^{K}(\frac{\vec{x_i}^H\vec{\theta}}{\sigma_i^2})\vec{x_i}(加入最小范数条件使得有唯一解)\\ \end{aligned} \right. \end{align} 非奇异K=M:奇异K<M:w^=i=1M(σi2xi Hθ )xi w^=i=1K(σi2xi Hθ )xi (加入最小范数条件使得有唯一解)文章来源地址https://www.toymoban.com/news/detail-492451.html

到了这里,关于最小二乘估计理论的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 数学建模常用模型(九) :偏最小二乘回归分析

    偏最小二乘回归(Partial Least Squares Regression,PLS Regression)是一种常用的统计建模方法,用于解决多元线性回归中自变量间高度相关的问题。在偏最小二乘回归中,通过将原始自变量转换为一组新的综合变量(称为主成分或潜在变量),然后再使用这些主成分进行回归分析,从

    2024年02月16日
    浏览(35)
  • 代理模型:最小二乘支持向量回归(LSSVR)--- MATLAB程序

    写在开头:       代理模型是工程问题中常用的一个优化方法。当实际问题计算量很大、不容易求解时,可以使用计算量较小、求解迅速的简化模型来替代原模型,加速优化过程。代理模型采用一个数据驱动的、自下而上的办法来建立:首先,通过抽样得到有限个样本点【输

    2024年02月08日
    浏览(37)
  • 偏最小二乘(Partial Least Squares,PLS)原理及模型建立

    随着对数据驱动的工业检测与诊断方法的逐步深入,过程监测的多元统计需要总结的东西越来越多,那么今天来整理一下。 内容较多,理论较复杂,建议细品,你品!最好推一遍~ It’s time to conclude PLS!!! PCA和偏最小二乘(PLS)是从 数据中描述正常情况 的首选方法。 天气

    2024年02月16日
    浏览(35)
  • 多元分类预测 | Matlab偏小二乘PLS分类预测,多特征输入模型

    效果一览 文章概述 多元分类预测 | Matlab偏小二乘PLS分类预测,多特征输入模型 多特征输入单输出的二分类及多分类模型。程序内注释详细,直接替换数据就可以用。程序语言为matlab,程序可出分类效果图,迭代优化图,混淆矩阵图。 部分源码

    2024年02月13日
    浏览(34)
  • 【C语言】输入三个数输出最大和最小的数

    代码实现 运行结果

    2024年02月08日
    浏览(33)
  • 非线性最小二乘

    在经典最小二乘法估计中,假定被解释变量的条件期望是关于参数的线性函数,例如 E ( y ∣ x ) = a + b x E(y|x) = a+bx E ( y ∣ x ) = a + b x 其中 a , b a,b a , b 为待估参数, E ( y ∣ x ) E(y|x) E ( y ∣ x ) 是关于参数 a , b a,b a , b 的线性函数。但 E ( y ∣ x ) E(y|x) E ( y ∣ x ) 是关于参数的非线

    2024年02月04日
    浏览(48)
  • 方程组的最小二乘解

            对于线性方程组求解,我们一般写成矩阵形式 Ax = y。 当 矩阵A满秩(即这q个变量是线性无关的) 时:         pq 时,为欠定方程组,方程个数少于未知数个数,有多解;         p=q 时,为方阵,方程个数等于未知数个数,有唯一解;          pq 时,

    2024年02月01日
    浏览(31)
  • 最小二乘问题,,而不是方法

    最小二乘是一大类问题,而不是一个简单的方法 适用于 :线性(非线性)方程组问题,如果观测带有噪声,我们需要建立最小二乘模型。如果噪声符合高斯分布,即最小二乘问题的解对应于原问题的最大似然解。 如果方程组是线性的(很好将测量值和待估计值分离),我们

    2023年04月08日
    浏览(32)
  • 【C语言】交换最大、最小值。输入一个正整数n(1<n≤10),再输入n个整数(<=999),将最小值与第一个数交换,最大值与最后一个数交换,然后输出交换后的n个数。

    【问题描述】4.4 交换最大、最小值。输入一个正整数n(1n≤10),再输入n个整数(=999),将最小值与第一个数交换,最大值与最后一个数交换,然后输出交换后的n个数。 【输入输出样例】 【样例说明】 输入提示符后冒号为英文字符,后面没有空格。 输出整数序列时按照%4d格

    2024年02月05日
    浏览(43)
  • 最小二乘问题和非线性优化

    转载自此处,修正了一点小错误。 在求解 SLAM 中的最优状态估计问题时,我们一般会得到两个变量,一个是由传感器获得的实际观测值 z boldsymbol{z} z ,一个是根据目前估计的状态量和观测模型计算出来的预测值 h ( x ) h(boldsymbol{x}) h ( x ) 。求解最优状态估计问题时通常我们

    2024年02月13日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包