Robbins-Monro(RM)算法【随机近似】

这篇具有很好参考价值的文章主要介绍了Robbins-Monro(RM)算法【随机近似】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

强化学习笔记

主要基于b站西湖大学赵世钰老师的【强化学习的数学原理】课程,个人觉得赵老师的课件深入浅出,很适合入门.

第一章 强化学习基本概念
第二章 贝尔曼方程
第三章 贝尔曼最优方程
第四章 值迭代和策略迭代
第五章 强化学习实践—GridWorld
第六章 蒙特卡洛方法
第七章 Robbins-Monro算法



一、Robbins-Monro 算法

随机近似(Stochastic Approximation)是指用于解决寻根或优化问题的一类广泛的随机迭代算法。与许多其他求根算法(如梯度下降法、牛顿法)相比,随机近似的强大之处在于它不需要目标函数的表达式或其导数。Robbins-Monro (RM)算法是随机近似领域的开创性工作,下面介绍RM算法的基本框架:

RM算法

g : R → R g: \mathbb{R}\to \mathbb{R} g:RR是一个未知函数,也就是说 g g g的形式未知,但能得到带有噪声的观测值,类似神经网络的黑箱子:

Robbins-Monro(RM)算法【随机近似】,强化学习,随机近似,强化学习

我们想要找到方程 g ( w ) = 0 g(w)=0 g(w)=0的根,RM算法迭代格式如下:
w k + 1 = w k − α k g ~ ( w k , η k ) w_{k+1} = w_k-\alpha_k\tilde{g}(w_k,\eta_k) wk+1=wkαkg~(wk,ηk)
其中, w k w_k wk是根的第 k k k次迭代的估计值, g ~ ( w k , η k ) \tilde{g}(w_k,\eta_k) g~(wk,ηk)是第 k k k次迭代带有噪声的观测值, α k \alpha_k αk是一个正系数,可以理解为步长.

算法的收敛性由如下定理进行保证:

Robbins-Monro(RM)算法【随机近似】,强化学习,随机近似,强化学习

Note:

  • 这个算法要收敛,对函数的要求其实蛮高的,第一个条件要求 g g g的导数为正且不能为+ ∞ \infty ,这就是说要求函数是单调递增的;
  • 若函数单调递增,我们可以通过下图直观的了解算法是如何通过迭代找到根的,和牛顿法求根的思想很类似只不过牛顿法用到了函数导数的信息,比RM算法的要求更高,RM算法不需要函数导数的信息;
    Robbins-Monro(RM)算法【随机近似】,强化学习,随机近似,强化学习
  • 如果我们需要求一个优化问题 min ⁡ f \min f minf,可以转换为 g = ∇ f = 0 g=\nabla f=0 g=f=0这样的求根的问题,此时要求 ∇ g > 0 \nabla g>0 g>0,事实上是要求 f f f的海瑟矩阵正定,即要求函数为凸函数,这和很对凸优化算法对函数的要求一样,只有当 f f f为凸函数时,算法才能保证收敛性.
  • (b)条件是要求步长为消失步长,常见的消失步长如 a k = 1 k a_k=\frac1k ak=k1.
  • (c)条件是对噪声的要求,要求噪声不能太离谱.

实例

下面我们通过RM算法来求 f ( x ) = x 3 − 5 f(x)=x^3-5 f(x)=x35的根,来加深一下对RM算法的理解,这里我通过传统方法Newton法和RM算法进行对比,代码如下:

# f(x) = x^3 - 5 
def f(x):
    return x**3 - 5

# Robbins-Monro algorithm
def robbins_monro(f, x0, max_iter):
    w = []
    w.append(x0)
    x = x0
    for i in range(max_iter):
        x = x - 1 / (i+5) * f(x)
        
        # stop if x is close to the root
        if np.abs(f(x)) < 1e-6:
            break
        w.append(x)
        
    return w

# newton's method
def newton(f, x0, max_iter):
    w = [x0]
    x = x0
    for i in range(max_iter):
        x = x - f(x) / (3 * x**2)
        
        # stop if x is close to the root
        if np.abs(f(x)) < 1e-6:
            break
        w.append(x)
    return w



w_1 = robbins_monro(f, 1, 1000)
w_2 = newton(f, 1, 1000)

# plot the iteration
import matplotlib.pyplot as plt
plt.figure(figsize=(8,5),dpi=150)
plt.plot(w_1)
plt.plot(w_2)
plt.xlabel('iteration')
plt.ylabel('x')
plt.legend(['Robbins-Monro', 'Newton'])
plt.show()

Robbins-Monro(RM)算法【随机近似】,强化学习,随机近似,强化学习

如上图所示,当初值选取合适时,RM算法和Newton算法都能收敛,不过通过选取不同的初值,我们可以发现当初值较远时,RM不会收敛,原因是 f ( x ) = x 3 − 5 f(x)=x^3-5 f(x)=x35不满足导数有界的条件,当初值不合适时就容易振荡,算法发散。而牛顿法相对来说就稳定很多,受初值的影响没有那么大,并且收敛速度更快。

二、期望估计

假设有一组样本 x 1 , x 2 , ⋯   , x k x_1,x_2,\cdots,x_k x1,x2,,xk服从同一个分布,我们想要估计这组样本的均值,当然我们首先想到的是:
E [ X ] = x 1 + x 2 + ⋯ + x k k . \mathbb{E}[X] = \frac{x_1+x_2+\cdots+x_k}{k}. E[X]=kx1+x2++xk.
但是在强化学习的某些算法中,我们不能一次性得到 n n n个样本,每次得到一个采样,那么我们怎么用迭代的算法来估计这个期望呢?我们记
w k = x 1 + x 2 + ⋯ + x k k , w_k=\frac{x_1+x_2+\cdots+x_k}{k}, wk=kx1+x2++xk,
那么第 k + 1 k+1 k+1次估计值为:
w k + 1 = x 1 + x 2 + ⋯ + x k + x k + 1 k + 1 = x 1 + x 2 + ⋯ + x k k k k + 1 + x k + 1 k + 1 = k k + 1 w k + 1 k + 1 x k + 1 = w k − 1 k + 1 ( w k − x k + 1 ) . ( 1 ) \begin{aligned} w_{k+1} &=\frac{x_1+x_2+\cdots+x_k+x_{k+1}}{k+1}\\ &=\frac{x_1+x_2+\cdots+x_k}{k}\frac{k}{k+1}+\frac{x_{k+1}}{k+1}\\ &=\frac{k}{k+1}w_k+\frac{1}{k+1}x_{k+1}\\ &=w_k-\frac{1}{k+1}(w_k-x_{k+1}). \end{aligned} \qquad\quad(1) wk+1=k+1x1+x2++xk+xk+1=kx1+x2++xkk+1k+k+1xk+1=k+1kwk+k+11xk+1=wkk+11(wkxk+1).(1)
这样我们就把对均值的估计写成了迭代的形式,每次得到一个新的样本,我们不用对所有样本求和计算了。只需要在上一次的估计值上进行更新就行。

上面这个迭代格式是我们从样本均值的定义出发得到的,下面我们从RM算法出发来推导一下这个迭代格式,考察如下函数
g ( w ) ≐ w − E [ X ] . \begin{aligned}g(w)\doteq w-\mathbb{E}[X].\end{aligned} g(w)wE[X].原始问题是获得 E [ X ] \mathbb{E}[X] E[X]的值,那么我们可以转换为求 g ( w ) = 0 g(w)=0 g(w)=0的根。给定 w w w的值,我们可以获得的噪声观察是 g ~ ≐ w − x \tilde{g}\doteq w-x g~wx,其中 x x x X X X的一个样本,注意, g ~ \tilde{g} g~可以写成
g ~ ( w , η ) = w − x = w − x + E [ X ] − E [ X ] = ( w − E [ X ] ) + ( E [ X ] − x ) ≐ g ( w ) + η , \begin{aligned} \tilde{g}(w,\eta)& =w-x \\ &\begin{aligned}=w-x+\mathbb{E}[X]-\mathbb{E}[X]\end{aligned} \\ &=(w-\mathbb{E}[X])+(\mathbb{E}[X]-x)\doteq g(w)+\eta, \end{aligned} g~(w,η)=wx=wx+E[X]E[X]=(wE[X])+(E[X]x)g(w)+η,所以此问题的RM算法为
w k + 1 = w k − α k g ~ ( w k , η k ) = w k − α k ( w k − x k ) , w_{k+1}=w_{k}-\alpha_{k}\tilde{g}(w_{k},\eta_{k})=w_{k}-\alpha_{k}(w_{k}-x_{k}), wk+1=wkαkg~(wk,ηk)=wkαk(wkxk), α k = 1 k + 1 \alpha_k=\frac{1}{k+1} αk=k+11时,我们就得到同(1)一样的迭代格式了,而且此时可以验证我们构造的函数以及选取的步长,满足收敛性条件,所以当 k → ∞ k\to\infty k时, w k + 1 → E [ X ] w_{k+1}\to\mathbb{E}[X] wk+1E[X].文章来源地址https://www.toymoban.com/news/detail-856178.html

三、参考资料

  1. Zhao, S… Mathematical Foundations of Reinforcement Learning. Springer Nature Press and Tsinghua University Press.

到了这里,关于Robbins-Monro(RM)算法【随机近似】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 强化学习专题:回合更新算法

    游戏开始 玩家收到两张明牌,荷官发给自己一张明牌和一张暗牌 根据自己手中的牌和荷官的明牌,玩家需要决定是否要牌(Hit)或停牌(Stand) 选择要牌,荷官发一张额外的牌 如果玩家的牌总点数超过21点,即爆牌(Bust),该玩家输。 否则可以继续要牌直到停止 选择停牌

    2024年02月11日
    浏览(42)
  • 【机器学习】强化学习(三)蒙特卡洛算法

    策略迭代算法和价值迭代算法为什么可以得到理论上的最优解,在实际问题中使用价值有限? 无模型算法 三、蒙特卡洛算法 蒙特卡洛(Monte Carlo)方法是一种基于样本的强化学习算法,它通过执行和学习代理(也就是我们编程的AI)环境交互的样本路径来学习。它不需要初始知

    2024年01月19日
    浏览(57)
  • python算法中的深度学习算法之强化学习(详解)

    目录 学习目标: 学习内容: 强化学习 Ⅰ. 环境建模 Ⅱ . Markov决策过程

    2024年02月01日
    浏览(44)
  • 【强化学习】常用算法之一 “SAC”

      作者主页: 爱笑的男孩。的博客_CSDN博客-深度学习,活动,python领域博主 爱笑的男孩。擅长深度学习,活动,python,等方面的知识,爱笑的男孩。关注算法,python,计算机视觉,图像处理,深度学习,pytorch,神经网络,opencv领域. https://blog.csdn.net/Code_and516?type=blog 个人简介:打工人。 持续分

    2024年02月11日
    浏览(50)
  • 深度强化学习——DQN算法原理

    一、DQN算法是什么 DQN,即深度Q网络(Deep Q-network),是指基于深度学习的Q-Learing算法。 回顾一下Q-Learing:强化学习——Q-Learning算法原理 Q-Learing算法维护一个Q-table,使用表格存储每个状态s下采取动作a获得的奖励,即状态-价值函数Q(s,a),这种算法存在很大的局限性。在现实

    2024年02月02日
    浏览(56)
  • 基于动态规划的强化学习算法

    学习「强化学习」(基于这本教材,强烈推荐)时的一些总结,在此记录一下。 在马尔可夫决策过程 环境模型已知 (也就是状态转移函数P、奖励函数r已知)的情况下,我们可以通过 「动态规划」 求得马尔可夫决策过程的最优策略 (pi^*) 。 对于做过算法题目的同学而言,

    2024年03月09日
    浏览(42)
  • 【强化学习】常用算法之一 “SARSA”

      作者主页: 爱笑的男孩。的博客_CSDN博客-深度学习,活动,python领域博主 爱笑的男孩。擅长深度学习,活动,python,等方面的知识,爱笑的男孩。关注算法,python,计算机视觉,图像处理,深度学习,pytorch,神经网络,opencv领域. https://blog.csdn.net/Code_and516?type=blog 个人简介:打工人。 持续分

    2024年02月11日
    浏览(53)
  • 【机器学习】强化学习(二)基于动态规划的算法

    值函数可以分为状态价值函数和动作价值函数,分别适用于哪些强化学习问题 二、基于动态规划的算法 2.1 策略迭代算法 示例: 代码 首先定义了一些参数,如奖励、折扣因子、最大误差等,然后初始化了一个网格世界的环境,包括状态、动作、价值函数和策略。接着,它定

    2024年01月21日
    浏览(47)
  • 机器学习算法(三十):强化学习(Reinforcement Learning)

    目录 1 简介  1.1 什么是强化学习 1.2 强化学习的主要特点 1.3 强化学习的组成部分 2 强化学习训练过程  3 强化学习算法归类 3.1 Value Based 3.2 Policy Based 3.3 Actor-Critic 3.4 其他分类 4 EE(Explore Exploit)探索与利用 5 强化学习实际开展中的难点 6 强化学习的实际应用 6.1 自动驾驶

    2024年02月02日
    浏览(53)
  • 22. 离线MC强化学习算法(1)

    离线强化学习的特点是采样策略 π ′ ≠ 待评估策略 π pi\\\'ne 待评估策略pi π ′  = 待评估策略 π ,这就带来一个问题: 如何根据 π ′ pi\\\' π ′ 获取的多条完整轨迹数据,计算得到 Q π ( s , a ) Q_pi(s,a) Q π ​ ( s , a ) 的估计值,而不是 Q π ′ ( s , a ) Q_{pi\\\'}(s,a) Q π ′ ​

    2024年01月23日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包