[Machine Learning] 损失函数和优化过程

这篇具有很好参考价值的文章主要介绍了[Machine Learning] 损失函数和优化过程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


损失函数和凸优化 (Loss Functions and Convex Optimisation)

在统计学习的框架中,我们通常试图找到一个函数或概念,这个函数可以很好地解释或拟合给定的数据。这通常通过最小化某种风险或损失来实现。为了找到一个好的模型,我们尝试在预定义的假设空间 H H H 中找到一个函数,该函数在训练数据上的经验风险 (Empirical Risk) 最小。但是,我们的真正目标是找到一个函数,其预期风险 (Expected Risk)(对于所有可能的数据分布)最小。

假设类 H H H是一个函数集,其中每个函数都尝试从输入特征映射到输出标签, H = { h 1 , h 2 , …   } H = \{ h_1, h_2, \dots \} H={h1,h2,}。通常, H H H 由一个特定的算法或模型结构定义,如线性回归、决策树等。

在实践中,我们不能在所有可能的函数空间中搜索,因此我们限制搜索在一个预定义的 hypothesis class(假设类) H H H中。给定训练样本 S = { ( X 1 , Y 1 ) , … , ( X n , Y n ) } S = \{(X_1, Y_1), \dots, (X_n, Y_n)\} S={(X1,Y1),,(Xn,Yn)},函数 h h h 的经验风险 R S ( h ) R_S(h) RS(h) 是指在这组训练数据上的平均损失,用来衡量 h h h 的性能:

R S ( h ) = ∑ i = 1 n ℓ ( X i , Y i , h ) R_S(h) = \sum\limits_{i=1}^n \ell(X_i,Y_i,h) RS(h)=i=1n(Xi,Yi,h)

预期风险 R ( h ) R(h) R(h) 是模型 h h h 在所有可能的数据分布上的平均风险。在理想情况下,我们希望找到的模型在任何可能的数据上都表现良好,而不仅仅是我们的训练数据:

R ( h ) = E [ R S ( h ) ] = E [ ℓ ( X i , Y i , h ) ] R(h) = \mathbb{E}[R_S(h)] = \mathbb{E}[\ell(X_i,Y_i,h)] R(h)=E[RS(h)]=E[(Xi,Yi,h)]

目标概念 c c c 是整个函数空间中的最佳假设,即在所有可能的假设中具有最低预期风险的假设:

c = arg min ⁡ h R ( h ) c = \argmin\limits_{h} R(h) c=hargminR(h)

h ∗ h^* h 是在预定义的假设类 H H H 中的最优假设,即在 H H H 中具有最低预期风险的假设:

h ∗ = arg min ⁡ h ∈ H R ( h ) h^* = \argmin\limits_{h \in H} R(h) h=hHargminR(h)

在实践中,我们通常无法直接计算预期风险 R ( h ) R(h) R(h),因为我们不知道所有可能的数据分布。因此,我们使用经验风险 R S ( h ) R_S(h) RS(h) 作为 R ( h ) R(h) R(h) 的一个估计,并从假设类 H H H 中选择最小化经验风险的假设 h S h_S hS:

h S = arg min ⁡ h ∈ H R S ( h ) = arg min ⁡ h ∈ H 1 n ∑ i = 1 n ℓ ( X i , Y i , h ) h_S = \argmin\limits_{h \in H} R_S(h) = \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hS=hHargminRS(h)=hHargminn1i=1n(Xi,Yi,h)

因此,选择一个合适的假设空间和损失函数 ℓ \ell 是至关重要的。

首先,0-1损失函数是最直接的分类误差度量。对于给定的分类器 h h h,它只是简单地计算误分类的数据点的数量。数学上,这定义为: arg min ⁡ h E [ 1 Y ≠ s i g n ( h ( X ) ) ] \argmin\limits_{h} \mathbb{E}[1_{Y \neq sign(h(X))}] hargminE[1Y=sign(h(X))]。但我们通常遇到的问题是:

  1. 真实数据的分布 P ( X , Y ) P(X,Y) P(X,Y) 是未知的,因此我们不能直接计算上述期望。
  2. 0-1损失在计算上是困难的,因为它是不连续的、非凸的,这使得优化变得复杂。

大数定律描述了随机变量的样本均值与整体均值之间的关系。它确保了当样本大小趋于无穷大时,样本均值趋于整体均值。更形式化地说,考虑一个随机变量 X X X,其期望值为 E [ X ] \mathbb{E}[X] E[X]。对于 X X X n n n 个独立同分布的样本 X 1 , X 2 , … , X n X_1, X_2, \dots, X_n X1,X2,,Xn,它们的样本均值定义为 X n ˉ = 1 n ∑ i = 1 n X i \bar{X_n} = \frac{1}{n} \sum_{i=1}^{n} X_i Xnˉ=n1i=1nXi。当 n → ∞ n \rightarrow \infty n 时, X n ˉ → E [ X ] \bar{X_n} \rightarrow \mathbb{E}[X] XnˉE[X]

通过大数定律,我们可以使用这些样本来估计某些与分布相关的数量,例如期望损失。假设我们的目标是估计由假设 h h h 引起的期望损失 E [ 1 Y ≠ sign ( h ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] E[1Y=sign(h(X))]。我们可以使用来自真实分布的样本 D \mathcal{D} D 来估计这个期望:

1 n ∑ i = 1 n 1 Y i ≠ sign ( h ( X i ) ) \frac{1}{n} \sum_{i=1}^{n} 1_{Y_i \neq \text{sign}(h(X_i))} n1i=1n1Yi=sign(h(Xi))

随着样本数量 n n n 的增加,上述估计将接近真实的期望损失。

为了在实践中使问题变得可解,我们使用所谓的 surrogate loss function(替代损失函数),它们在优化上更容易处理,但仍旨在近似0-1损失函数。

  • Hinge loss(合页损失):这是支持向量机中使用的损失函数。
    ℓ ( X , Y , h ) = max ⁡ { 0 , 1 − Y h ( X ) } \ell(X,Y,h) = \max \{0,1−Yh(X)\} (X,Y,h)=max{0,1Yh(X)}

  • Logistic loss(逻辑损失):这是逻辑回归中使用的。它对于异常值更为稳健,并且为概率提供了良好的估计。

  • Least square loss(最小二乘损失):主要在回归问题中使用。

  • Exponential loss(指数损失):是AdaBoost算法中使用的损失函数。

大多数流行的替代损失函数都是为了在大样本极限下模拟0-1损失函数的效果。这些被称为 classification-calibrated (分类校准的)替代损失函数。这意味着,如果训练数据无穷大,则使用这些损失函数训练的分类器在0-1损失上的表现将与真正的最佳分类器一致。

在二元分类问题中,模型通常会输出一个分数或概率值 h ( X ) h(X) h(X),代表输入 X X X 属于正类的可能性。公式 ϕ ( Y h ( X ) ) = ℓ ( X , Y , h ) \phi(Yh(X)) = \ell(X, Y, h) ϕ(Yh(X))=(X,Y,h) 实际上定义了一个映射,它将模型输出的分数 h ( X ) h(X) h(X) 和真实标签 Y Y Y 的组合 Y h ( X ) Yh(X) Yh(X) 映射到代理损失函数的值上。这个映射允许我们通过优化 ℓ \ell 来间接优化分类性能。

  • ϕ \phi ϕ 是一个函数,它将 Y h ( X ) Yh(X) Yh(X) 转换为一个实数值,这个值表示损失。
  • Y h ( X ) Yh(X) Yh(X) 的计算考虑了预测的得分 h ( X ) h(X) h(X) 与实际标签 Y Y Y 之间的关系。例如,在二元分类中, Y Y Y 通常取值为 − 1 -1 1 1 1 1,而 h ( X ) h(X) h(X) 是模型对 X X X 的预测得分。 Y h ( X ) Yh(X) Yh(X) 的正负反映了预测是否准确。
  • ℓ ( X , Y , h ) \ell(X, Y, h) (X,Y,h) 表示在给定输入 X X X、标签 Y Y Y 和预测函数 h h h 的情况下,模型所受的损失。

为了检查 ℓ \ell 是否是分类校准的,我们通常检查以下条件:

  1. ϕ \phi ϕ 是凹的 (convex):这意味着函数 ϕ \phi ϕ 的图形是一个凸形状,这有利于优化过程,因为凸函数有全局最小值。
  2. ϕ \phi ϕ 在0处可导,并且 ϕ ′ ( 0 ) < 0 \phi'(0) < 0 ϕ(0)<0:这个条件保证了当预测得分 h ( X ) h(X) h(X) 接近于正确分类的边界时(即 Y h ( X ) Yh(X) Yh(X) 接近 0),函数 ϕ \phi ϕ 对预测错误的惩罚会增加。

满足上述条件意味着在大部分情况下,对于一个给定的数据点,分类器 h h h 使代理损失最小化时,也会使0-1损失最小化。

例如,考虑Hinge损失 ℓ hinge ( X , Y , h ) = max ⁡ { 0 , 1 − Y h ( X ) } \ell_{\text{hinge}}(X,Y,h) = \max \{ 0, 1-Yh(X) \} hinge(X,Y,h)=max{0,1Yh(X)}

对应的 ϕ \phi ϕ 函数为 ϕ ( z ) = max ⁡ { 0 , 1 − z } \phi(z) = \max \{ 0, 1-z \} ϕ(z)=max{0,1z}

这个函数在 z = 1 z=1 z=1 处是不可导的,但是在 z = 0 z=0 z=0 处是可导的,且其导数小于0,因此Hinge损失是分类校准的。

现在可以考虑以下两个分类器的定义:

  • h s h_s hs 是基于有限训练数据和替代损失函数的最优分类器。
  • h c h_c hc 是基于整个数据分布和0-1损失函数的最优分类器。

使用替代损失函数和训练数据,我们可以找到 h s h_s hs

h s = arg min ⁡ h 1 n ∑ i = 1 n ℓ ( X i , Y i , h ) h_s = \argmin\limits_{h} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) hs=hargminn1i=1n(Xi,Yi,h)

与此同时,如果我们知道整个数据的分布,我们可以找到 h c h_c hc

h c = arg min ⁡ h E [ 1 Y ≠ sign ( h ( X ) ) ] h_c = \argmin\limits_{h} \mathbb{E}[1_{Y \neq \text{sign}(h(X))}] hc=hargminE[1Y=sign(h(X))]

当我们的训练数据量无限大时,使用替代损失函数得到的 h s h_s hs 将与使用0-1损失函数得到的 h c h_c hc越来越接近。这可以通过以下公式表示:

E [ 1 Y ≠ sign ( h S ( X ) ) ] ⟶ n → ∞ E [ 1 Y ≠ sign ( h c ( X ) ) ] \mathbb{E}[1_{Y \neq \text{sign}(h_S(X))}] \overset{n \rightarrow \infty}{\longrightarrow} \mathbb{E}[1_{Y \neq \text{sign}(h_c(X))}] E[1Y=sign(hS(X))]nE[1Y=sign(hc(X))]

这意味着,当我们基于有限的样本数据集优化代理损失时,我们实际上是在优化该数据集上的经验损失。大数定律保证,随着样本数的增加,这个经验损失的期望会接近于真实的期望损失。同时,如果我们的代理损失是分类校准的,那么优化这个代理损失将隐式地优化0-1损失。当训练数据的大小趋向于无穷大时,通过最小化替代损失函数得到的分类器的期望0-1损失将趋近于最优的0-1损失。

当替代损失函数是凹的且光滑时,我们可以使用一系列的优化算法,如梯度下降、牛顿法等,来解决以下问题:

h = arg min ⁡ h ∈ H 1 n ∑ i = 1 n ℓ ( X i , Y i , h ) h = \argmin\limits_{h \in H} \frac{1}{n} \sum\limits_{i=1}^n \ell(X_i,Y_i,h) h=hHargminn1i=1n(Xi,Yi,h)

假设函数 f ( h ) f(h) f(h) 在点 h k h_k hk 是可微的,我们可以使用泰勒级数来近似函数在 h k h_k hk 附近的值:

f ( x + Δ x ) ≈ f ( x ) + ∇ f ( x ) T Δ x + 1 2 Δ x T ∇ 2 f ( x ) Δ x + … f(x + \Delta x) \approx f(x) + \nabla f(x)^T \Delta x + \frac{1}{2} \Delta x^T \nabla^2 f(x) \Delta x + \dots f(x+Δx)f(x)+f(x)TΔx+21ΔxT2f(x)Δx+

如果我们只考虑上述近似的第一项和第二项(线性近似),我们得到:
f ( h + Δ h ) ≈ f ( h ) + ∇ f ( h ) T Δ h f(h + \Delta h) \approx f(h) + \nabla f(h)^T \Delta h f(h+Δh)f(h)+f(h)TΔh

现在,考虑我们的梯度下降更新步骤: h k + 1 = h k + η d k h_{k+1} = h_k + \eta d_k hk+1=hk+ηdk,其中 d k d_k dk 是下降方向, Δ h = η d k \Delta h = \eta d_k Δh=ηdk。我们要找到一个 Δ h \Delta h Δh 使得 f ( h + Δ h ) f(h + \Delta h) f(h+Δh) 尽可能小。从上面的线性近似中,我们可以看到,要使 f ( h + Δ h ) f(h + \Delta h) f(h+Δh) 的增量 ∇ f ( h ) T Δ h \nabla f(h)^T \Delta h f(h)TΔh 尽可能小, Δ h \Delta h Δh 应该与梯度 ∇ f ( h ) \nabla f(h) f(h) 的反方向对齐。因此,通常会选择梯度的负方向 − ∇ f ( h ) -\nabla f(h) f(h) 作为下降方向 。

基本的更新规则是 h k + 1 = h k − η ∇ f ( h k ) h_{k+1} = h_k - \eta \nabla f(h_k) hk+1=hkηf(hk),其中 η \eta η 是学习率, ∇ f ( h k ) \nabla f(h_k) f(hk) 是函数在 h k h_k hk 处的梯度。

纯粹的梯度下降方法在某些情况下可能不够高效,尤其是当函数的等高线呈延伸椭圆形时。在这种情况下,梯度下降路径可能会在延伸方向上“之字形”前进,导致需要更多的迭代次数。

为了解决这个问题,可以引入预条件矩阵 D k D^k Dk。这个矩阵作为一个缩放因子,调整每个维度上梯度的大小,使得优化过程更加高效。

D k D^k Dk 可以根据问题的具体情况设计,目的是使得在函数的不同方向上移动时步长更加合理。通常, D k D^k Dk 是对角矩阵,其对角线元素表示不同方向上的缩放因子。

例如,在牛顿法中, D k D^k Dk 是Hessian矩阵的逆矩阵,它利用了函数的二阶导数信息,从而在曲率较大的方向上减小步长,在曲率较小的方向上增大步长。

通过引入预条件矩阵,更新规则变为 h k + 1 = h k − η D k ∇ f ( h k ) h_{k+1} = h_k - \eta D^k \nabla f(h_k) hk+1=hkηDkf(hk)。这种方法使得在函数的每个方向上的移动更加符合函数本身的形状,从而加快收敛速度。其中, D k D^k Dk 是一个正定对称矩阵。正定性保证了更新的方向是下降方向,即 ∇ f ( h k ) T D k ∇ f ( h k ) > 0 \nabla f(h_k)^T D^k \nabla f(h_k) > 0 f(hk)TDkf(hk)>0

  • Steepest Descent(最速下降法)

    D k = I D^k = I Dk=I

    此时,矩阵 D k D^k Dk 是单位矩阵,这意味着我们只沿着梯度的负方向移动。

  • Newton’s Method(牛顿法)

    D k = [ ∇ 2 f ( h k ) ] − 1 D^k = [\nabla^2 f(h_k)]^{-1} Dk=[2f(hk)]1

    这里,矩阵 D k D^k Dk 是Hessian矩阵的逆,Hessian矩阵是一个用于描述多元函数局部曲率的矩阵。

对于一个二次可微的多元函数 f ( x 1 , x 2 , … , x n ) f(x_1, x_2, \ldots, x_n) f(x1,x2,,xn),其Hessian矩阵 H H H 定义为该函数的所有二阶偏导数构成的矩阵。即:

H ( f ) = [ ∂ 2 f ∂ x 1 2 ∂ 2 f ∂ x 1 ∂ x 2 ⋯ ∂ 2 f ∂ x 1 ∂ x n ∂ 2 f ∂ x 2 ∂ x 1 ∂ 2 f ∂ x 2 2 ⋯ ∂ 2 f ∂ x 2 ∂ x n ⋮ ⋮ ⋱ ⋮ ∂ 2 f ∂ x n ∂ x 1 ∂ 2 f ∂ x n ∂ x 2 ⋯ ∂ 2 f ∂ x n 2 ] H(f) = \begin{bmatrix} \frac{\partial^2 f}{\partial x_1^2} & \frac{\partial^2 f}{\partial x_1 \partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_1 \partial x_n} \\ \frac{\partial^2 f}{\partial x_2 \partial x_1} & \frac{\partial^2 f}{\partial x_2^2} & \cdots & \frac{\partial^2 f}{\partial x_2 \partial x_n} \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial^2 f}{\partial x_n \partial x_1} & \frac{\partial^2 f}{\partial x_n \partial x_2} & \cdots & \frac{\partial^2 f}{\partial x_n^2} \end{bmatrix} H(f)= x122fx2x12fxnx12fx1x22fx222fxnx22fx1xn2fx2xn2fxn22f

  • Hessian矩阵用于判断多元函数的某个点是局部极大值、局部极小值还是鞍点。

    • 如果 H H H 在该点的所有特征值都是正的,则该点是一个局部极小值。
    • 如果 H H H 在该点的所有特征值都是负的,则该点是一个局部极大值。
    • 如果 H H H 的特征值中既有正的也有负的,则该点是一个鞍点。
    • 如果 H H H 的特征值包含零,则该方法无法确定该点的性质,可能需要进一步的分析。
  • 特征值反映了函数在对应特征向量方向上的曲率。

    正特征值意味着函数在该方向上呈凸形,负特征值意味着函数在该方向上呈凹形。

在实践中,计算Hessian矩阵和其逆可能会遇到困难,尤其是当维度很高时。因此,提出了多种牛顿法的实用变种:

  • 修改Hessian以确保其为正定:

    为了确保Hessian矩阵是可逆的和正定的,我们可以对其进行微小的修改,例如,通过向其添加一个正则化项。

  • 每m次迭代计算一次Hessian:

    由于Hessian矩阵的计算可能是计算密集型的,所以一个策略是每m次迭代计算一次,而在其他迭代中使用最近计算的Hessian。

  • 只使用Hessian的对角线:

    通过只考虑Hessian矩阵的对角线元素,可以大大减少计算的复杂性。这种方法称为对角Hessian牛顿法。

  • 拟牛顿法:

    拟牛顿法是一种旨在近似Hessian矩阵而避免直接计算它的方法。其中,BFGS (Broyden–Fletcher–Goldfarb–Shanno algorithm) 和L-BFGS (Limited-memory BFGS) 是最著名的拟牛顿方法。L-BFGS 是BFGS的内存效率版本,只存储Hessian矩阵的最近的几个更新。

假设我们已经选择了下降方向 d k d_k dk,精确线搜索 (Exact Line Search) 是这样定义的:

  • 假设当前迭代点为 h k h_k hk,下降方向为 d k d_k dk(在梯度下降中为 − ∇ f ( h k ) -\nabla f(h_k) f(hk))。
  • 精确线搜索试图找到一个步长 η k \eta_k ηk,使得 f ( h k + η k d k ) f(h_k + \eta_k d_k) f(hk+ηkdk) 最小。
  • 这涉及到在一维空间上最小化函数 f f f,即求解问题 η = arg min ⁡ η f ( h k − η ∇ f ( h k ) ) \eta = \argmin\limits_{\eta} f(h_k - \eta \nabla f(h_k)) η=ηargminf(hkηf(hk))

简单地说,它搜索一个步长 η \eta η,使得从当前位置 x k x_k xk开始,沿着梯度方向移动 η \eta η步长后,函数 f f f达到最小值。尽管这种方法可以找到最佳的步长,但在实际应用中,它可能会很昂贵,因为每次迭代都需要求解一个新的优化问题。

精确线搜索通常涉及到求解一个一维优化问题,这可能需要使用一些数学技术,如黄金分割搜索或二分搜索。在实践中,精确线搜索可能是计算密集型的,因为它要求在每次迭代中都要精确地最小化一维函数。

为了避免精确线搜索的高计算成本,我们可以使用一些近似的策略来选择步长 η \eta η。如果我们知道梯度的Lipschitz平滑常数 L L L,我们可以保证选择的步长不会太大,从而避免过度调整参数并保证算法的稳定性。这个常数 L L L 告诉我们函数的梯度怎样被限制在一个平滑的变化范围内。具体来说,如果 L L L 已知,我们可以使用如下的迭代更新规则:

h k + 1 = h k − 1 L ∇ f ( h k ) h_{k+1} = h_k - \frac{1}{L} \nabla f(h_k) hk+1=hkL1f(hk)

以及保证函数值下降的条件:

f ( h k + 1 ) ≤ f ( h k ) − 1 2 L ∥ ∇ f ( h k ) ∥ 2 f(h_{k+1}) \leq f(h_k) - \frac{1}{2L} \|\nabla f(h_k)\|^2 f(hk+1)f(hk)2L1∥∇f(hk)2

这个更新规则简化了步长的选择过程,因为它不需要每次都计算最优步长,而是依靠 L L L 的值来控制步长。这种方法虽然不如精确线搜索精细,但计算上更为可行,对于大规模问题更为实用。

Lipschitz平滑常数 L L L 是用来描述函数梯度平滑度的一个数值,如果一个函数的梯度(或导数)变化不超过其自身与另一点差的常数倍,那么这个函数就被认为具有Lipschitz连续的梯度,而这个常数倍 L L L 就是所谓的Lipschitz平滑常数。

更具体地说,考虑一个函数 f : R n → R f: \mathbb{R}^n \rightarrow \mathbb{R} f:RnR,如果对于定义域内的任意两点 x x x y y y,该函数的梯度满足以下不等式:

∥ ∇ f ( x ) − ∇ f ( y ) ∥ ≤ L ∥ x − y ∥ \|\nabla f(x) - \nabla f(y)\| \leq L \|x - y\| ∥∇f(x)f(y)Lxy

这里, ∇ f ( x ) \nabla f(x) f(x) 是函数在 x x x 点的梯度, ∥ ⋅ ∥ \|\cdot\| 表示向量的欧几里得范数(即长度)。如果这样的 L L L 存在,我们就可以说函数 f f f 在其定义域内是Lipschitz平滑的,且 L L L 是一个Lipschitz平滑常数。

所以,如果我们知道 L L L,我们就可以更好地控制梯度下降算法中的步长,以避免步长太大导致的震荡,或步长太小导致的收敛速度慢。简而言之,Lipschitz平滑常数 L L L 提供了一个梯度变化的上界,帮助我们在优化问题中做出更好的步长选择。

不同算法的收敛速率是不同的:

  1. 梯度下降(对于凹函数):

    • 假设
      • 目标函数是凹的 (convex) 。
      • 目标函数的梯度满足Lipschitz连续性。
    • 收敛速率
      • 对于凹函数,梯度下降的收敛速率是 O ( 1 k ) O\left(\frac{1}{k}\right) O(k1)
      • 这意味着经过 k k k 次迭代后,算法与最优解的差距大约是初始差距的 1 k \frac{1}{k} k1
  2. 梯度下降(对于强凸函数):

    • 假设:
      • 目标函数是强凹的 (strongly-convex) ,意味着除了凹性外,还满足某种形式的下界条件。
      • 梯度满足Lipschitz连续性。
    • 收敛速率:
      • 对于强凹函数,梯度下降的收敛速率是 O ( 1 − μ L ) k O\left(1-\frac{\mu}{L}\right)^k O(1Lμ)k
      • 这里 μ \mu μ 是表示函数强凹性的常数。收敛速度依赖于 μ \mu μ L L L 的比例。
  3. 牛顿法:

    • 假设:
      • 目标函数具有Lipschitz连续的梯度。
      • 目标函数是强凹的。
    • 收敛速率:
      • 牛顿法的收敛速率是局部二次的,这意味着靠近最优解时,误差的减少速度是指数级的。
      • 牛顿法的精确收敛速率取决于多个因素,通常表示为 ∑ i = 1 k ρ k \sum\limits_{i = 1}^{k}\rho_k i=1kρk,其中 ρ k \rho_k ρk 是逐步减少的序列。

PAC学习框架 (Probably Approximately Correct Learning Framework)

在机器学习中,我们经常关心两种主要的误差来源:近似误差 (Approximation Error) 和估计误差 (Estimation Error)。近似误差是因预定义的假设空间 H H H 的限制而导致的误差,它是最优假设 h ∗ h^* h 和目标概念 c c c 之间的差异。估计误差是由于有限的样本大小而导致的误差,它是从数据中学习的假设 h S h_S hS 和最优假设 h ∗ h^* h 之间的差异。

如果目标概念 c c c 在预定义的假设空间 H H H 中,那么近似误差将为零。然而,选择一个大而复杂的假设空间虽然可以减小近似误差,但它会增加估计误差,因为模型可能会过拟合数据。

在实际应用中,我们希望了解从有限的训练样本中学到的知识能够多大程度上应用到新的、未曾见过的数据上。PAC学习框架给出了为了从预定义的假设类中学到近似最优假设所需的训练样本数量的上界。该框架为学习算法的泛化性能提供了理论基础。它揭示了训练数据集的大小、假设类的复杂性和学到的模型的泛化误差之间的关系。

假设类 H H H 是PAC可学习的,意味着存在一个算法,可以从假设类中选取一个假设,这个假设在新的数据上的误差与假设类中最佳假设的误差之差小于 ϵ \epsilon ϵ,且这种情况发生的概率至少为 1 − δ 1-\delta 1δ

如果存在学习算法 A \mathcal{A} A 和多项式函数 p o l y ( ⋅ , ⋅ ) poly(·,·) poly(⋅,⋅),使得对于任意 ϵ > 0 \epsilon > 0 ϵ>0 δ > 0 \delta > 0 δ>0,对于所有定义在 X × Y X \times Y X×Y 上的分布 D D D,只要样本的大小 n n n 超过 p o l y ( 1 δ , 1 ϵ ) poly(\frac{1}{\delta}, \frac{1}{\epsilon}) poly(δ1,ϵ1),则由算法 A \mathcal{A} A 学到的假设 h S h_S hS 满足以下条件:

p { R ( h S ) − min ⁡ h ∈ H R ( h ) ≤ ϵ } ≥ 1 − δ p\{ R(h_S) - \min\limits_{h \in H} R(h) \leq \epsilon\} \geq 1 - \delta p{R(hS)hHminR(h)ϵ}1δ

这里 R ( h S ) R(h_S) R(hS) 是学到的假设的经验风险,而 min ⁡ h ∈ H R ( h ) \min\limits_{h \in H} R(h) hHminR(h) 是假设类 H H H 中所有假设的最小可能风险。

如果训练样本大小足够大,例如 n > poly ( 1 δ , 1 ϵ ) n > \text{poly}(\frac{1}{\delta}, \frac{1}{\epsilon}) n>poly(δ1,ϵ1),那么有很高的概率,学到的假设 h S h_S hS 可以近似地作为预定义假设类 H H H 中任何任务的最佳假设。

这里,“学到的假设” h S h_S hS 是学习算法基于样本数据产生的结果,“近似地”意味着 h S h_S hS 的经验风险与 H H H 中最佳假设的风险相差不超过 ϵ \epsilon ϵ,而“大概地”指出这个结果是有 1 − δ 1 - \delta 1δ 的置信度保证的。

总的来说,PAC学习提供了统计上的保证,说明在足够大的样本量下,我们的学习算法有很大概率找到一个与最优假设相当接近的假设。这里的“大概”反映了学习结果的置信程度,“近似”则表示所学假设的准确度。

我们使用经验风险最小化(ERM)算法来验证一个假设类是否是PAC可学习的。

泛化误差 (Generalisation Error)

泛化误差是指模型在训练数据上的表现与在整个数据分布上的表现之间的差异。在实际应用中,我们不能直接计算这个错误率,因此我们使用训练数据上的经验误差 R S ( h ) R_S (h) RS(h) 来估计它。

PAC学习想要确保,对于足够大的样本量,学到的模型 h S h_S hS 的期望风险接近于最佳模型 h ∗ h^* h 的风险。数学上表示为:对于任何 ϵ > 0 \epsilon > 0 ϵ>0 δ > 0 \delta > 0 δ>0,当样本量 n n n 足够大时,我们可以以至少 1 − δ 1 - \delta 1δ 的概率保证 R ( h S ) − min ⁡ h ∈ H R ( h ) < ϵ R(h_S) - \min\limits_{h \in H} R(h) < \epsilon R(hS)hHminR(h)<ϵ

考虑学习得到的假设 h S h_S hS 和假设类 H H H 中的最优假设 h ∗ h^* h 的期望风险差 R ( h S ) − R ( h ∗ ) R(h_S) - R(h^*) R(hS)R(h)

R ( h S ) − min ⁡ h ∈ H R ( h ) = R ( h S ) − R ( h ∗ ) = R ( h S ) − R S ( h S ) + R S ( h S ) − R S ( h ∗ ) + R S ( h ∗ ) − R ( h ∗ ) \begin{align*} R(h_S) - \min\limits_{h \in H} R(h) &= R(h_S) - R(h^*) \\ &= R(h_S) - R_S(h_S) + R_S(h_S) - R_S(h^*) + R_S(h^*) - R(h^*) \end{align*} R(hS)hHminR(h)=R(hS)R(h)=R(hS)RS(hS)+RS(hS)RS(h)+RS(h)R(h)
最佳模型 h ∗ h^* h 的风险应该小于或等于从训练数据学习到的模型 h S h_S hS 的风险,所以:

R ( h S ) − min ⁡ h ∈ H R ( h ) ≤ R ( h S ) − R S ( h S ) + R S ( h ∗ ) − R ( h ∗ ) ≤ ∣ R ( h S ) − R S ( h S ) ∣ + ∣ R ( h ∗ ) − R S ( h ∗ ) ∣ ≤ sup ⁡ h ∈ H ∣ R ( h ) − R S ( h ) ∣ + sup ⁡ h ∈ H ∣ R ( h ) − R S ( h ) ∣ = 2 sup ⁡ h ∈ H ∣ R ( h ) − R S ( h ) ∣ \begin{align*} R(h_S) - \min\limits_{h \in H} R(h) &\leq R(h_S) - R_S(h_S) + R_S(h^*) - R(h^*) \\ &\leq |R(h_S) - R_S(h_S)| + |R(h^*) - R_S(h^*)| \\ &\leq \sup_{h \in H} |R(h) - R_S(h)| + \sup_{h \in H} |R(h) - R_S(h)| \\ &= 2 \sup_{h \in H} |R(h) - R_S(h)| \end{align*} R(hS)hHminR(h)R(hS)RS(hS)+RS(h)R(h)R(hS)RS(hS)+R(h)RS(h)hHsupR(h)RS(h)+hHsupR(h)RS(h)=2hHsupR(h)RS(h)

这个不等式说明,在最坏情况下,最优模型 h S h_S hS 的期望风险与在假设空间 H H H 中可能的最优模型的期望风险之间的差距最多是所有模型在期望风险和经验风险之间差的两倍。

我们还有一个不等式:

∣ R ( h S ) − R S ( h S ) ∣ ≤ sup ⁡ h ∈ H ∣ R ( h ) − R S ( h ) ∣ |R(h_S) - R_S(h_S)| \leq \sup_{h \in H} |R(h) - R_S(h)| R(hS)RS(hS)hHsupR(h)RS(h)

这个不等式说明,所选模型 h S h_S hS 的真实误差与其在训练集上的经验误差之间的差距,最多等于假设空间 H H H 中所有模型的最大真实误差与经验误差之间的差的上界。

实际上,泛化误差以高概率被一个小数上界限定。我们首先需要理解霍夫丁不等式的基本形式,然后将其应用于泛化误差的上界。

假设有一个学习算法,它从训练数据集 D D D 中学习并产生一个假设 h h h

我们想要估计 h h h 在整个数据分布上的真实误差 R ( h ) R(h) R(h) 与在训练集 D D D 上的经验误差 R ^ ( h ) \hat{R}(h) R^(h) 之间的差异。

霍夫丁不等式用于估计一组独立随机变量的平均值与其期望值偏离的概率。对于一组界限明确的独立随机变量 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X1,X2,...,Xn,且 a i ≤ X i ≤ b i a_i \leq X_i \leq b_i aiXibi,平均值为 X ˉ = 1 n ∑ i = 1 n X i \bar{X} = \frac{1}{n} \sum_{i=1}^{n} X_i Xˉ=n1i=1nXi,则对任意 ϵ > 0 \epsilon > 0 ϵ>0,有:

P ( ∣ X ˉ − E [ X ˉ ] ∣ ≥ ϵ ) ≤ 2 exp ⁡ ( − 2 n 2 ϵ 2 ∑ i = 1 n ( b i − a i ) 2 ) P(|\bar{X} - E[\bar{X}]| \geq \epsilon) \leq 2 \exp\left(-\frac{2n^2\epsilon^2}{\sum_{i=1}^{n}(b_i - a_i)^2}\right) P(XˉE[Xˉ]ϵ)2exp(i=1n(biai)22n2ϵ2)

对于每个样本 i i i,定义随机变量 X i X_i Xi 表示分类器 h h h 是否在该样本上犯错。 X i = 1 X_i = 1 Xi=1 表示错误分类, X i = 0 X_i = 0 Xi=0 表示正确分类。
这些 X i X_i Xi 是独立同分布的,且 E [ X i ] = R ( h ) \mathbb{E}[X_i] = R(h) E[Xi]=R(h),其中 R ( h ) R(h) R(h) 是期望风险。

经验风险 R S ( h ) R_S(h) RS(h) 是在训练集上的分类错误的平均值,即 R S ( h ) = 1 n ∑ i = 1 n X i R_S(h) = \frac{1}{n}\sum\limits_{i=1}^{n}X_i RS(h)=n1i=1nXi

使用霍夫丁不等式,我们可以估计 R S ( h ) R_S(h) RS(h) R ( h ) R(h) R(h) 之间偏离超过 ϵ \epsilon ϵ 的概率。由于 X i X_i Xi 的界限为 0 和 1,我们得到:

P ( ∣ 1 n ∑ i = 1 n X i − R ( h ) ∣ ≥ ϵ ) ≤ 2 exp ⁡ ( − 2 n ϵ 2 ) P\left(\left|\frac{1}{n}\sum_{i=1}^{n}X_i - R(h)\right| \geq \epsilon\right) \leq 2\exp(-2n\epsilon^2) P( n1i=1nXiR(h) ϵ)2exp(2nϵ2)

这意味着,对于任意给定的误差界限 ϵ \epsilon ϵ,经验风险与期望风险之间的差异大于 ϵ \epsilon ϵ 的概率小于或等于 2 exp ⁡ ( − 2 n ϵ 2 ) 2\exp(-2n\epsilon^2) 2exp(2nϵ2)

因此,可以确定一个样本数量 n n n,使得以至少 1 − δ 1 - \delta 1δ 的概率,泛化误差 ∣ R S ( h ) − R ( h ) ∣ |R_S(h) - R(h)| RS(h)R(h) ϵ \epsilon ϵ 上界限定,其中 δ = 2 exp ⁡ ( − 2 n ϵ 2 ) \delta = 2\exp(-2n\epsilon^2) δ=2exp(2nϵ2)

换句话说,通过增加样本量 n n n,我们可以增加泛化误差小于某个小数 ϵ \epsilon ϵ 的概率。

VC Dimension: Binary Case

在机器学习中,我们通常有一个假设集合 H H H,里面包含了很多不同的模型(或者说“假设”)。我们的目标是从这个集合中找到一个最好的模型来预测我们感兴趣的事物。如果这个假设集合非常大,甚至是无限的,找到最好的模型就会很困难。

为了解决这个问题,我们可以采用一种技巧,即不是直接在无限的假设集合中找最好的模型,而是将这些模型分成几个有限的组。每组里的模型在我们给定的一些数据点上预测的结果是一样的。这样,我们就可以将每个组中的模型看作是等价的,并且每个组只需要选择一个模型作为代表。

这样做之后,我们就不需要考虑原始无限假设集合中的每一个模型了,而只需要考虑有限个代表模型,这大大简化了问题。

最后,我们想要测量的是我们模型在实际应用中的表现(即期望风险 R ( h ) R(h) R(h))和在我们手头数据上的表现(即经验风险 R S ( h ) R_S(h) RS(h))之间的差异。理论上,我们希望这两者尽可能接近。通过上述的分组技巧,我们可以在数学上找到一个上限(或者说界限),确保无论我们选择哪一个代表模型,它在实际应用中的表现不会比在手头数据上的表现差太多。

如果这个假设类 H H H有无限多个模型,我们很难一一考虑它们。为了解决这个问题,我们需要找到一个方法,能让我们只考虑其中的一部分模型,并且这一部分能代表整个无限集合的特性。我们把这一部分称为 H ′ H′ H

成长函数 (Growth Function) 是一种帮助我们理解假设类 H H H 复杂性的工具。它告诉我们,对于任何数量的数据点 n n n,假设类 H H H 能产生多少种不同的预测结果。如果对于每一组可能的预测结果,我们都能在 H H H 中找到至少一个模型来生成这个结果,那么我们说 H H H 能“破坏”这 n n n 个数据点。

破坏性 (Shattering) 的概念帮助我们理解一个假设类能产生多少种不同的预测结果。如果一个假设类可以为任何可能的数据点组合生成所有可能的标签组合(例如,对于三个数据点,能生成 +++,±-,-±,等所有八种组合),那么我们说它破坏了这些点。

我们通常更关心的是,对于实际的数据点数 n n n,假设类 H H H 实际能产生多少种不同的预测。这个数字是 Π H ( n ) \Pi_H(n) ΠH(n)。如果 Π H ( n ) \Pi_H(n) ΠH(n) 等于 2 n 2^n 2n ,这意味着假设类 H H H 可以为这 n n n 个数据点生成所有可能的标签组合。

如果给定一个在 R 2 \mathbb{R}^2 R2 中的线性分类器: H = { ( x 1 , x 2 ) ↦ { 1 w 1 x 1 + w 2 x 2 + b ≥ 0 } : w 1 , w 2 , b ∈ R } \mathcal{H} = \{ (x_1, x_2) \mapsto \{1_{w_1x_1+w_2x_2+b \geq 0}\} : w_1, w_2, b \in \mathbb{R} \} H={(x1,x2){1w1x1+w2x2+b0}:w1,w2,bR}

  1. 给定 m m m 个点,相应的生长函数用 Π H ( m ) \Pi_\mathcal{H}(m) ΠH(m) 表示。当 m m m 分别等于 1, 2, 3, 4 时,这四个生长函数 Π H ( m ) \Pi_\mathcal{H}(m) ΠH(m) 的值是多少?

    • m = 1 m = 1 m=1 时,无论如何放置一个点,线性分类器都可以完美分类(要么全部归为正类,要么全部归为负类)。所以,生长函数 Π H ( 1 ) = 2 \Pi_{\mathcal{H}}(1) = 2 ΠH(1)=2

    • m = 2 m = 2 m=2 时,两个点可以以两种方式被线性分类器分开(每个点各属于一类,或者两个点属于同一类)。因此, Π H ( 2 ) = 2 2 = 4 \Pi_{\mathcal{H}}(2) = 2^2 = 4 ΠH(2)=22=4

    • m = 3 m = 3 m=3 时,三个点可以构成一个三角形。线性分类器可以通过三种不同方式将其中一个点与其他两点分开,加上一种方式是将三个点全部分类为同一类,还有另外一种方式是将三个点分成两类但不是单独一个点对立两个点。因此, Π H ( 3 ) = 2 3 = 8 \Pi_{\mathcal{H}}(3) = 2^3 = 8 ΠH(3)=23=8

[Machine Learning] 损失函数和优化过程,机器学习

  • m = 4 m = 4 m=4 时,情况就更复杂了。四个点可以构成很多不同的配置,但一个线性分类器无法实现所有 2 4 = 16 2^4 = 16 24=16 种可能的分割。在最坏的情况下,四个点形成一个凸形,线性分类器可以实现 14 种分割(不能实现的是四个点每个点各自成一类,以及三个点一类另一个点一类)。所以, Π H ( 4 ) ≤ 14 \Pi_{\mathcal{H}}(4) \leq 14 ΠH(4)14
  1. 计算 H \mathcal{H} H 的VC维数:

    • VC维数是指一个假设类能够“破坏”的最大点集的大小。如果一个假设类可以通过某种方式将这个点集中的点分配到任意的类别中,那么它就破坏了这个点集。

    • 对于线性分类器 H \mathcal{H} H,我们可以用线性边界在平面上将任意两个点分开,所以 H \mathcal{H} H 可以破坏任意两点的集合。当我们有三个点时,只要这三个点不共线,我们仍然可以用一条直线将它们分开成任意的分类。因此, H \mathcal{H} H 的VC维数至少是3。

    • 但当我们有四个点时,如上面解释的,存在一些四点的配置,这些配置不能被任意分割成两类,特别是如果这四个点形成一个凸多边形。所以, H \mathcal{H} H 不能破坏任意四点的集合。

因此,该线性分类器 H \mathcal{H} H R 2 \mathbb{R}^2 R2 中的VC维数是3。这是因为它可以破坏任意三点的集合,但不能破坏四个点的集合。

假设集合 H H H 是由三个二元分类器构成的,它们分别是:

  1. h 1 ( x ) = sign ( e x ) h_1(x) = \text{sign}(e^x) h1(x)=sign(ex)
  2. h 2 ( x ) = sign ( 2 ∣ x ∣ + 1 ) h_2(x) = \text{sign}(2|x| + 1) h2(x)=sign(2∣x+1)
  3. h 3 ( x ) = sign ( ( x − 1 ) 2 + 2 x ) h_3(x) = \text{sign}((x - 1)^2 + 2x) h3(x)=sign((x1)2+2x)

其中 x x x 是实数 ( x ∈ R x \in \mathbb{R} xR),而 sign \text{sign} sign 函数根据 x x x 的值返回 + 1 +1 +1 − 1 -1 1

生长函数 Π H ( n ) \Pi_H(n) ΠH(n) 表示集合 H H H 在最坏情况下(即它能实现的最多种类的标签组合)能在任意 n n n 个数据点上产生的不同标签的数量。

由于我们的假设集合 H H H 只有三个假设,那么无论 n n n 的值是多少, H H H 最多只能在这 n n n 个点上产生 2 3 = 8 2^3 = 8 23=8 种不同的标签组合。这是因为每个假设 h i h_i hi 对于任意一个点 x x x 只能产生 + 1 +1 +1 − 1 -1 1 两种标签。

然而,这个数字实际上可能更小,因为假设之间可能产生相同的标签。例如,对于 h 1 ( x ) h_1(x) h1(x),由于 e x e^x ex 总是正的,所以 h 1 ( x ) h_1(x) h1(x) 总是返回 + 1 +1 +1,不管 x x x 的值是多少。这意味着 h 1 h_1 h1 不能在任意点上产生不同的标签,它对生长函数没有贡献。

对于 h 2 ( x ) h_2(x) h2(x) h 3 ( x ) h_3(x) h3(x),我们需要分析它们是否能在某些 x x x 的值上产生不同的标签。 h 2 h_2 h2 由于 2 ∣ x ∣ + 1 2|x| + 1 2∣x+1 总是正的,所以也总是返回 + 1 +1 +1。最后, h 3 ( x ) h_3(x) h3(x) 是一个二次函数,它的符号会根据 x x x 的值变化,但是由于我们考虑的是 sign \text{sign} sign 函数,所以 h 3 h_3 h3 也总是返回 + 1 +1 +1,因为 ( x − 1 ) 2 + 2 x (x - 1)^2 + 2x (x1)2+2x 总是正的。

所以,实际上,这三个假设在任何点 x x x 上都产生相同的标签 + 1 +1 +1,那么它们的生长函数 Π H ( n ) = 1 \Pi_H(n) = 1 ΠH(n)=1 对于所有的 n n n

VC维是指一个假设集合可以“破坏”的最大点集的大小。一个假设集合“破坏”一组点意味着它能对这些点产生所有可能的标签组合。

由于 H H H 中的每个假设都不能产生除 + 1 +1 +1 以外的标签, H H H 不能破坏任何大小的点集,因此 H H H 的VC维是0。

一个高VC维度的假设类比低VC维度的假设类更复杂。这意味着高VC维度的假设类可能有更高的过拟合风险。

VC不等式它提供了期望风险(即在整个分布上的风险)和经验风险(即训练数据上的风险)之间的关系。给定一个假设类的VC维度和一个训练数据集的大小,VC不等式告诉我们期望风险和经验风险之间的差异不超过某个值的概率。

Pr ⁡ ( ∣ R ( h ) − R S ( h ) ∣ > ϵ ) ≤ 4 m H ( 2 n ) exp ⁡ ( − n ϵ 2 8 ) \Pr\left( \left| R(h) - R_S(h) \right| > \epsilon \right) \leq 4 m_H(2n) \exp\left(-\frac{n\epsilon^2}{8}\right) Pr(R(h)RS(h)>ϵ)4mH(2n)exp(8nϵ2)

其中, m H ( n ) m_H(n) mH(n) 是假设空间 H H H 能够打散的大小为 n n n 的点集的数量, R ( h ) R(h) R(h) 是真实风险, R S ( h ) R_S(h) RS(h) 是经验风险。

通过上述不等式,我们可以估计为了达到特定的泛化误差,需要多少训练样本。这对于判断一个给定的假设类是否是PAC可学习的非常有用。

在PAC学习中,为了保证学习到的假设有良好的泛化性能,我们需要足够多的样本来控制期望风险和经验风险之间的差异。VC维度为我们提供了评估所需样本量的方法,从而使我们能够验证假设类是否是PAC可学习的。文章来源地址https://www.toymoban.com/news/detail-664633.html

到了这里,关于[Machine Learning] 损失函数和优化过程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 应用机器学习的建议 (Advice for Applying Machine Learning)

    问题: 假如,在你得到你的学习参数以后,如果你要将你的假设函数放到一组 新的房屋样本上进行测试,假如说你发现在预测房价时产生了巨大的误差,现在你的问题是要想改进这个算法,接下来应该怎么办? 解决思路: 一种办法是使用更多的训练样本。具体来讲,也许你

    2024年01月25日
    浏览(29)
  • 现实生活中机器学习的具体示例(Machine Learning 研习之二)

    机器学习在现实中的示例 通过上一篇的讲解,我们多多少少对 机器学习 (Machine Learning)有了些许了解,同时也对 机器学习 (Machine Learning)一词不再那么抗拒了。 那么, 机器学习 到底在现实生活为我们解决哪些难题呢?亦或是传统方案目前无法实现的。 1、可以分析生产

    2024年02月16日
    浏览(31)
  • 机器学习中的 Transformation Pipelines(Machine Learning 研习之十)

    Transformation Pipelines 有许多数据转换步骤需要以正确的顺序执行。幸运的是, Scikit-Learn 提供了 Pipeline 类来帮助处理这样的转换序列。下面是一个用于数值属性的小管道,它首先对输入特性进行归并,然后对输入特性进行缩放: Pipeline 构造函数采用名称/估算器对(2元组)的列表,

    2024年02月04日
    浏览(29)
  • 机器学习在网络安全领域的应用 Demystifying Cybersecurity with Machine Learning

    作者:禅与计算机程序设计艺术 什么是机器学习(Machine Learning)?又是如何应用在网络安全领域呢?本文将详细阐述其定义、分类及历史沿革,同时介绍一些机器学习的基本概念和技术,帮助企业界更好地理解和掌握机器学习在网络安全领域的应用。通过相关案例实践,全

    2024年02月06日
    浏览(32)
  • 人工智能_机器学习065_SVM支持向量机KKT条件_深度理解KKT条件下的损失函数求解过程_公式详细推导_---人工智能工作笔记0105

    之前我们已经说了KKT条件,其实就是用来解决 如何实现对,不等式条件下的,目标函数的求解问题,之前我们说的拉格朗日乘数法,是用来对 等式条件下的目标函数进行求解. KKT条件是这样做的,添加了一个阿尔法平方对吧,这个阿尔法平方肯定是大于0的,那么 可以结合下面的文章去

    2024年02月04日
    浏览(25)
  • 机器学习——损失函数(lossfunction)

    问:非监督式机器学习算法使用样本集中的标签构建损失函数。   答:错误 。非监督式机器学习算法不使用样本集中的标签构建损失函数。这是因为非监督式学习算法的目的是在没有标签的情况下发现数据集中的特定结构和模式,因此它们依赖于不同于监督式学习的算法。

    2024年02月04日
    浏览(32)
  • Azure Machine Learning - 聊天机器人构建

    本文介绍如何部署和运行适用于 Python 的企业聊天应用示例。 此示例使用 Python、Azure OpenAI 服务和 Azure AI 搜索中的检索扩充生成(RAG)实现聊天应用,以获取虚构公司员工福利的解答。 关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理

    2024年01月19日
    浏览(32)
  • 机器学习分类,损失函数中为什么要用Log,机器学习的应用

    目录 损失函数中为什么要用Log 为什么对数可以将乘法转化为加法? 机器学习(Machine Learning) 机器学习的分类 监督学习 无监督学习 强化学习 机器学习的应用 应用举例:猫狗分类 1. 现实问题抽象为数学问题 2. 数据准备 3. 选择模型 4. 模型训练及评估 5.预测结果 推荐阅读

    2024年02月11日
    浏览(27)
  • 【机器学习】P2 线性回归、损失函数与梯度下降

    线性回归简单的说就是线性函数; 线性回归属于机器学习 回归问题; 在线性回归建立的线性关系的模型中,假设目标变量和自变量之间存在一种线性关系,模型的目标是找到最佳的拟合线,是的模型对于未知的数据能够进行最准确的预测; 线性回归模型的一般形式为: y

    2023年04月08日
    浏览(26)
  • PyTorch各种损失函数解析:深度学习模型优化的关键(2)

    目录 详解pytorch中各种Loss functions mse_loss 用途 用法 使用技巧 注意事项 参数 数学理论公式 代码演示  margin_ranking_loss 用途 用法 使用技巧 注意事项 参数 数学理论公式  代码演示 multilabel_margin_loss 用途 用法 使用技巧 注意事项 参数 数学理论公式 代码演示 multilabel_soft_margin_

    2024年01月19日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包