ADMM算法系列1:线性等式或不等式约束下可分离凸优化问题的ADMM扩展

这篇具有很好参考价值的文章主要介绍了ADMM算法系列1:线性等式或不等式约束下可分离凸优化问题的ADMM扩展。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 研究背景

      交替方向乘数法(ADMM)最初由Glowinski和Marrocco提出,用于解决非线性椭圆问题,它已成为解决各种凸优化问题的基准算法。在方法上,可以认为ADMM算法是在经典增广拉格朗日方法(ALM)的分裂版本。它已经在非常广泛的领域找到了应用,特别是在与数据科学相关的领域,如机器学习、计算机视觉和分布式/集中式优化。

(注:为什么将ADMM算法称为ALM的分裂版本)

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

可以看出ALM可以解决一块的问题,而对于两块可分离凸优化问题ALM就比较困难,所以引入ADMM算法,可以说ADMM就是松弛的ALM,其中ADMM算法原型框架为:

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

其中λk+1可以明确的写成:

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

如果将两块可分离凸优化问题扩展到多块,可能会导致不收敛,故在本文中,如何将ADMM扩展到具有线性不等式约束的两块和多块(两块以上)可分离凸优化问题奠定了基础。

2 主要内容

2.1 收敛路线图

      首先提出了一个统一的算法设计框架和一个在变分不等式背景下进行收敛分析的路线。

a、针对如下凸优化问题:

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

可以将它转换为变分不等式形式:

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

b、进一步的对几个符号做了定义:

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

d、对证明收敛提出了统一框架:

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

      针对这个统一框架可以分为两部分(预测和校正),故只需要凑出预测步骤找到花Q凑出校正步骤找到花M,有了这两个矩阵证明收敛就很容易了。

e

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

      有了花Q和花M便有了H和G两个矩阵,我们已经证明了最后一个不等式是成立的,所以只要满足a中的P矩阵的条件就可以证明出所涉及的算法是收敛的。

      在此基础上,可以设计一系列具体的基于ADMM的算法,这些算法在预测校正结构中具有可证明的收敛性。所提出的算法框架和收敛分析路线图适用于具有不同可分性程度的各种凸优化问题,其中可以包括线性等式和线性不等式约束。

2.2 原始ADMM的扩展

a、原始对偶扩展

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

       其中第一步为预测步骤,利用预测步骤的值去更新迭代校正步骤。推导过程也很简单就是在原始ADMM算法的基础上去掉常数项演变而来,它的收敛性证明便遵循了上面所阐述的收敛性路线图,即先找到它的变分不等式然后凑出收敛性证明的预测校正框架即可。

b、更换迭代顺序

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

       这个算法框架与原始的ADMM最主要的区别就是可以先进行λ的更新,收敛性证明同样遵循收敛性路线图以及收敛性框架。

2.3扩展到多块可分离凸优化问题

       如果直接扩展到多块可能会不收敛,所以提出算法框架,并证明这个算法框架在处理多块的时候同样是收敛的,收敛性证明同样遵循上文提出的收敛路线及收敛统一框架。

a、原始扩展

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

同样是利用预测步骤的值在校正步骤中做更新迭代。

b、交换迭代顺序

gs-admm算法,ADMM算法系列,算法,机器学习,人工智能

       这里就和前文对应了,主要是想说明作者在原始ADMM算法的基础上,所提出的新的算法框架是可行的也就是收敛的。

3 总结

      本文建立了标准路线图,以证明所提出的原型算法框架在没有任何额外条件的情况下的收敛性。如果遵循路线图来推导从所提出的原型算法框架中指定的任何算法的收敛性,那么本质上它只需要指定两个矩阵,然后检查另一个矩阵的正定性。

目的就是从高层次和方法论的角度研究原始ADMM的扩展;因此本文没有给出任何实验结果。如前所述,所提出的原型算法框架基本上保持了原始ADMM(1.3)的所有主要结构和特征,这说明了它的通用性和效率,而额外的校正步骤在计算上非常简单。很容易从经验上验证从所提出的算法框架中指定的算法的效率。

这里就和前文对应了,主要是想说明作者在原始ADMM算法的基础上,所提出的新的算法框架是可行的也就是收敛的。文章来源地址https://www.toymoban.com/news/detail-774212.html

到了这里,关于ADMM算法系列1:线性等式或不等式约束下可分离凸优化问题的ADMM扩展的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LMI(线性矩阵不等式)、schur补 学习笔记

    1.掌握求解LMI的目的(以及整套流程)    掌握matlab中LMI工具箱的函数使用 2.掌握schurs补 -------------------------------------------------- 你的点赞是我更新的动力! -------------------------------------------------- 1.首先初始化 2.定义矩阵变量 type为矩阵格式 type = 1 为 对角块 对称矩阵格式,每

    2024年01月21日
    浏览(39)
  • 线性矩阵不等式(LMI)在控制理论中的应用

    目录 (一)Matlab中的LMI处理工具包  (二)为什么LMI成为控制理论领域重要工具? (三)LMI在与Lyapunov不等式的关系 (1)线性矩阵不等式  (2)线性矩阵不等式系统 (3)舒尔(Schur)补 (四)LMI中常见引理 引理2(广义KYP引理[4]) 推论1(广义KYP引理推论[4]) 引理3(射影定

    2024年02月08日
    浏览(38)
  • 线性矩阵不等式LMI与李雅普诺夫Lyapunov稳定性

    形式为 LMI ( y ) = A 0 + A 1 y 1 + A 2 y 2 + ⋯ ≥ 0 text{LMI}(y)=A_0+A_1y_1+A_2y_2+cdots geq 0 LMI ( y ) = A 0 ​ + A 1 ​ y 1 ​ + A 2 ​ y 2 ​ + ⋯ ≥ 0 其中 A 0 , A 1 , A 2 , . . . A_0,A_1,A_2,... A 0 ​ , A 1 ​ , A 2 ​ , ... 为对称方阵。 例子 若 LMI ( y ) = [ y 1 + y 2 y 2 + 1 y 1 + 1 y 3 ] , text{LMI}(y)=left[ begin{m

    2024年02月22日
    浏览(45)
  • 《鲁棒控制——线性矩阵不等式处理方法》(俞立)第二、三、四章学习笔记

     :非零向量,  或者的最大特征值小于0. 是凸集。(设V是数域P上的线性空间,W是V的一个非空子集,如果对W中任意两个向量a,b以及任意0=c=1,都有ca+(1-c)b  W,则W是凸集)。 ,其中是r*r维的非奇异矩阵,则称为在中的Schur补。 对给定的对称矩阵,其中是r*r维的非奇异矩阵,

    2023年04月08日
    浏览(37)
  • 石子合并一章通(环形石子合并,四边形不等式,GarsiaWachs算法)(内附封面)

    在一个圆形操场的四周摆放 N N N 堆石子,现要将石子有次序地合并成一堆,规定每次只能选相邻的 2 2 2 堆合并成新的一堆,并将新的一堆的石子数,记为该次合并的得分。 试设计出一个算法,计算出将 N N N 堆石子合并成 1 1 1 堆的最小得分和最大得分。 数据的第 1 1 1 行是正

    2024年02月14日
    浏览(39)
  • 马尔可夫不等式、切比雪夫不等式

    在概率论中,马尔可夫不等式给出了随机变量的非负函数大于或等于某个正常数 ϵ epsilon ϵ 的概率的上限 下图来自:Markov inequality 下图为任一分布的概率密度函数图像 图片来自:Mathematical Foundations of Computer Networking: Probability a a a 越大,阴影部分的面积越小,即概率越小 使

    2024年02月04日
    浏览(35)
  • 马尔科夫不等式和坎泰利不等式的证明

    马尔科夫不等式(Markov’s inequality) 对于随机变量 X X X ,有 P ( ∣ X ∣ ⩾ ε ) ⩽ E ∣ X ∣ k ε k , ε 0 , k ∞ Pleft( left| X right|geqslant varepsilon right) leqslant frac{Eleft| X right|^k}{varepsilon ^k},varepsilon 0,kinfty P ( ∣ X ∣ ⩾ ε ) ⩽ ε k E ∣ X ∣ k ​ , ε 0 , k ∞ 证明: P ( ∣ X ∣ ⩾ ε

    2024年02月08日
    浏览(40)
  • Hoeffing不等式

    设 X 1 , X 2 , . . . , X N X_1,X_2,...,X_N X 1 ​ , X 2 ​ , ... , X N ​ 是独立随机变量,且 X i ∈ [ a i , b i ] , i = 1 , 2 , . . . , N ; S N = ∑ i = 1 N X i X_iin[a_i,b_i],i=1,2,...,N;S_N=sum_{i=1}^NX_i X i ​ ∈ [ a i ​ , b i ​ ] , i = 1 , 2 , ... , N ; S N ​ = ∑ i = 1 N ​ X i ​ ,则对任意t0,以下不等式成立:

    2024年02月07日
    浏览(41)
  • 不等式证明(三)

    设 p , q p ,q p , q 是大于1的常数,并且 1 p + 1 q = 1 frac{1}{p}+frac{1}{q}=1 p 1 ​ + q 1 ​ = 1 .证明:对于任意的 x 0 x0 x 0 ,有 1 p x p + 1 q ≥ x frac{1}{p}x^p+frac{1}{q}geq x p 1 ​ x p + q 1 ​ ≥ x . 证明 : 设 f ( x ) = 1 p x p + 1 q − x (1) f(x)=frac{1}{p}x^p+frac{1}{q}- xtag{1} f ( x ) = p 1 ​ x p + q 1 ​

    2024年01月21日
    浏览(48)
  • 放缩不等式推导

    放缩不等式推导 1 )   a x x + 1 ( 1 a ≤ e , x 0 ; a ≥ e , x 0 ) ; 1) a^xx+1left(1aleq e,x0;ageq e,x0right); 1 )   a x x + 1 ( 1 a ≤ e , x 0 ; a ≥ e , x 0 ) ; p r o o f : proof: p roo f : f 01 ( x ) = a x − ( x + 1 ) ⇒ f 01 ′ ( x ) = a x ln ⁡ a − 1 f_{01}left(xright)=a^{x}-left(x+1right)Rightarrow f_{01}^{\\\'}left(xright) =

    2023年04月22日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包