(最优化理论与方法)第一章最优化简介-第二节:最优化典型实例之稀疏优化和低秩矩阵恢复

这篇具有很好参考价值的文章主要介绍了(最优化理论与方法)第一章最优化简介-第二节:最优化典型实例之稀疏优化和低秩矩阵恢复。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

考虑下面线性方程组的求解问题,其中 x ∈ R n , b ∈ R m x\in \R^{n},b\in \R^{m} xRn,bRm,矩阵 A ∈ R m × n A\in \R^{m×n} ARm×n,且向量 b b b的维数远小于向量 x x x的维数,也即 m m m<< n n n

A x = b Ax=b Ax=b

在相关问题中,当我们建立这样的模型后,常常希望解出向量 x x x,但无奈的是由于 m m m<< n n n,所以它会有无穷多解。但是,这些解当中大部分是不重要的,真正有用的是那些稀疏解

一:什么是稀疏优化

稀疏优化:原始信号中绝大多数元素为0,在某种线性约束条件下,求一个使决策变量使其非零元素个数达到最小,其基本数学模型如下

m i n ∣ ∣ x ∣ ∣ 0 , s . t . A x = b min||x||_{0},\quad s.t. \quad Ax=b min∣∣x0,s.t.Ax=b

这类技术常常应用于通过部分信息恢复全部信息。例如下图

  • 假设读者评分仅与题材有关,那么就可以利用部分信息恢复全表

(最优化理论与方法)第一章最优化简介-第二节:最优化典型实例之稀疏优化和低秩矩阵恢复

二:范数

范数(Norm):在线性代数等数学学科中,范数是一个函数,其赋予某个向量空间或矩阵中的每个向量以长度或大小(对于零向量,令其长度为0)。直观来讲,向量或矩阵的范数越大,那么我们就可以说这个向量或矩阵也就越大

  • 其实我们所熟知的绝对值也是范数,它是一维向量空间中实数或复数的范数
  • 经常用到的欧氏距离也是范数

对于这三个范数,从效果上来看

  • l 0 l_{0} l0效果最好
  • l 1 l_{1} l1效果次之
  • l 2 l_{2} l2效果最差

对于这三个范数,从求解速度上来看

  • l 0 l_{0} l0基本很求解
  • l 1 l_{1} l1也很难求解,运算时间较长,但要是能求出来,其解更偏向于全局最优解
  • l 2 l_{2} l2求解速度较快,但容易陷入局部最优

(1) l 0 l_{0} l0​范数

l 0 l_{0} l0范数:是指向量中非0的元素的个数。如果我们用 l 0 l_{0} l0范数来规则化一个参数矩阵 W W W的话,就是希望 W W W的大部分元素都是0,换句话说,让参数 W W W是稀疏的。所以 l 0 l_{0} l0范数非常适合机器学习中的稀疏编码,可以通过最小化 l 0 l_{0} l0范数来寻找最少的稀疏特征项

  • 例如向量 a = [ 1 , 0 , 2 , 0 , − 1 , 2 ] a=[1, 0, 2, 0, -1 ,2] a=[1,0,2,0,1,2] l 0 l_{0} l0范数就是4

但是, l 0 l_{0} l0范数的最小化问题是一个NP难问题,举个例子

  • 假设某矩阵 A A A大小为500×2000,如果我们知道稀疏解为20(也即该矩阵中只有20个元素非零),那么你要想求解这20个点就有3.0×1047种可能,假设每次测试需要1.0×10-9s,那么总共需要1.2×1031年才能得到答案

(2) l 1 l_{1} l1​范数和 l 2 l_{2} l2​范数

  • l 1 l_{1} l1范数:是指向量中各个元素绝对值之和。 l 1 l_{1} l1 l 0 l_{0} l0范数的最优凸近似

  • l 2 l_{2} l2范数:是指向量中各个元素平方和然后开根

l 1 l_{1} l1范数最优化问题的解是稀疏性的,其倾向于选择很少的一些非常大的值和很多的不重要的小值。而 l 2 l_{2} l2范数最优化则更多的非常少的特别大的值,却又很多相对小的值,但其仍然对最优化解有重要的贡献。但从最优化问题解的平滑性来看, l 1 l_{1} l1范数的最优解相对于 l 2 l_{2} l2范数要少,但其往往是最优解,而 l 2 l_{2} l2的解很多,但更多的倾向于某种局部最优解

(最优化理论与方法)第一章最优化简介-第二节:最优化典型实例之稀疏优化和低秩矩阵恢复

三:稀疏优化例子

在MATLAB环境中构造矩阵 A A A(128×256),其每个元素都服从高斯分布,精确解 u u u只有10%的元素非零,每一个元素也服从高斯分布

m = 128; n = 256;
A = randn(m, n);
u = sprandn(n, 1, 0.1);
b = A * u;

此时, u u u便是如下 l 0 l_{0} l0范数问题的最优解

m i n x ∈ R n ∣ ∣ x ∣ ∣ 0 s . t . A x = b \mathop{min}\limits_{x\in \R^{n}}\quad||x||_{0}\quad s.t. \quad Ax=b xRnmin∣∣x0s.t.Ax=b

而前面说过, l 0 l_{0} l0范数优化问题是 N P NP NP难问题,所以是不可能直接求解出来的,因此可以转为 l 1 l_{1} l1范数优化问题,如下
m i n x ∈ R n ∣ ∣ x ∣ ∣ 1 s . t . A x = b \mathop{min}\limits_{x\in \R^{n}}\quad||x||_{1}\quad s.t. \quad Ax=b xRnmin∣∣x1s.t.Ax=b

但是相关论文已经证明, l 1 l_{1} l1 l 0 l_{0} l0范数的最优凸近似,也即若 A A A b b b满足一定条件,向量 u u u也是 l 1 l_{1} l1范数优化问题的唯一最优解。从这里我们可以看到优化这门学科可以在很大程度上降低待研究问题的困难程度

但如果改为 l 2 l_{2} l2范数优化问题呢,即求解如下优化问题

m i n x ∈ R n ∣ ∣ x ∣ ∣ 2 s . t . A x = b \mathop{min}\limits_{x\in \R^{n}}\quad||x||_{2}\quad s.t. \quad Ax=b xRnmin∣∣x2s.t.Ax=b

虽然 l 2 l_{2} l2范数优化问题可以很快求解出来,但此时 u u u已经不是原问题的解了。这是因为 l 1 l_{1} l1范数优化问题可以保证解的稀疏性,但 l 2 l_{2} l2范数优化问题并不能保证

(最优化理论与方法)第一章最优化简介-第二节:最优化典型实例之稀疏优化和低秩矩阵恢复文章来源地址https://www.toymoban.com/news/detail-479449.html

四:低秩矩阵恢复

到了这里,关于(最优化理论与方法)第一章最优化简介-第二节:最优化典型实例之稀疏优化和低秩矩阵恢复的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习笔记之最优化理论与方法(十)无约束优化问题——共轭梯度法背景介绍

    本节将介绍 共轭梯度法 ,并重点介绍共轭方向法的逻辑与几何意义。 关于 最小化 二次目标函数: min ⁡ f ( x ) = min ⁡ 1 2 x T Q x + C T x begin{aligned}min f(x) = min frac{1}{2} x^T mathcal Q x + mathcal C^T xend{aligned} min f ( x ) = min 2 1 ​ x T Q x + C T x ​ ,其中 Q ∈ R n × n ; Q ≻ 0 mathcal Q

    2024年02月09日
    浏览(46)
  • 机器学习笔记之最优化理论与方法(二)凸集的简单认识(上)

    本节将介绍关于 凸集 的基本信息,包括 概念 、 基本性质 以及常见凸集。 在 最优化问题 范畴中, 凸优化问题 是一类常见的、并且 性质优秀 的优化问题。一些情况下可以通过 凸优化问题 来解决 非凸优化问题 。 而 凸集合与凸函数 决定了该优化问题是 凸优化问题 。具体

    2024年02月10日
    浏览(38)
  • 最优化:建模、算法与理论(最优性理论2

    考虑优化问题 min ⁡ x ∈ R n 1 2 ∣ ∣ x − y ∣ ∣ 2 2 , s . t . A x = b min_{x{in}R^n}frac{1}{2}||x-y||_2^2,\\\\ s.t.{quad}Ax=b x ∈ R n min ​ 2 1 ​ ∣∣ x − y ∣ ∣ 2 2 ​ , s . t . A x = b 其中 A ∈ R m × n , b ∈ R m , y ∈ R n A{in}R^{m times n},b{in}R^m,y{in}R^n A ∈ R m × n , b ∈ R m , y ∈ R n 为给定的矩阵

    2024年02月07日
    浏览(43)
  • 最优化理论笔记及期末复习(《数值最优化》——高立)

    8.3.1实验内容 利用Matlab编程,实现采用简单Armijo非精确线搜索求步长的三种方法:负梯度法、BFGS法及FR共轭梯度法,并求解如下无约束优化问题: m i n f ( x ) = 10 ( x 1 3 − x 2 ) 2 + ( x 1 − 1 ) 2 min f(x) =10(x_1^3-x_2)^2+(x_1-1)^2 m i n f ( x ) = 1 0 ( x 1 3 ​ − x 2 ​ ) 2 + ( x 1 ​ − 1 ) 2 通过

    2024年02月02日
    浏览(41)
  • 最优化:建模、算法与理论(优化建模)

    目前在学习 最优化:建模、算法与理论这本书,来此记录一下,顺便做一些笔记,在其中我也会加一些自己的理解,尽量写的不会那么的条条框框(当然最基础的还是要有) 本章将从常用的建模技巧开始,接着介绍统计学、信号处理、图像处理以及机器学习中常见的优化模

    2024年02月10日
    浏览(187)
  • 最优化:建模、算法与理论(典型优化问题

    4.1.1 基本形式和应用背景 再次说明一下,其实这本书很多的内容之前肯定大家都学过,但是我觉得这本书和我们之前学的东西的出发角度不一样,他更偏向数学,也多一个角度让我们去理解 线性规划问题的一般形式如下: min ⁡ x ∈ R n c T x s . t . A x = b G x ≤ e (4.1.1) min_{x{

    2024年02月09日
    浏览(246)
  • 最优化:建模、算法与理论(优化建模——2)

    聚类分析是 统计学中的一个基本问题,其在机器学习,数据挖掘,模式识别和图像分析中有着重要应用。聚类不同于分类,在聚类问题中我们仅仅知道数据点本身,而不知道每个数据点具体的标签。聚类分析的任务就是将一些无标签的数据点按照某种相似度来进行归类,进而

    2024年02月09日
    浏览(47)
  • 【最优化理论】牛顿法+Matlab代码实现

    牛顿迭代法(Newton’s method)又称为牛顿-拉夫逊(拉弗森)方法(Newton-Raphson method),它是牛顿在17世纪提出的一种在实数域和复数域上近似求解方程的方法。 多数方程不存在求根公式,因此求精确根非常困难,甚至不可解,从而寻找方程的近似根就显得特别重要。方法使用

    2023年04月09日
    浏览(46)
  • 最优化理论-线性规划的标准形

    目录 一、引言 二、线性规划的标准形 1. 线性规划的定义 2. 线性规划的标准形 3. 线性规划的约束条件 三、线性规划的求解方法 1. 单纯形法 2. 内点法 3. 割平面法 四、线性规划的应用 1. 生产计划 2. 运输问题 3. 投资组合问题 五、总结 最优化理论是数学中的一个重要分支,它

    2024年02月07日
    浏览(37)
  • 最优化问题简介及优秀教材《凸优化》介绍

    最优化广泛应用于科学与工程计算、数据科学、机器学习、人工智能、图像和信号处理、金融和经济、管理科学等众多领域。 最优化问题可以归纳为如下定义:   最优化问题一般很难求解,除了一些特例。目前已经发展成熟的,能够有效求解的最优化问题可以归为以下三类

    2024年02月11日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包