【机器学习】处理不平衡的数据集

这篇具有很好参考价值的文章主要介绍了【机器学习】处理不平衡的数据集。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

一、介绍

        假设您在一家给定的公司工作,并要求您创建一个模型,该模型根据您可以使用的各种测量来预测产品是否有缺陷。您决定使用自己喜欢的分类器,根据数据对其进行训练,瞧:您将获得96.2%的准确率!
        你的老板很惊讶,决定使用你的模型,没有任何进一步的测试。几周后,他走进你的办公室,强调你的模型是无用的。事实上,您创建的模型从生产中使用以来就没有发现任何有缺陷的产品。
        经过一些调查,您发现贵公司生产的产品中只有大约 3.8% 是有缺陷的,您的模型总是回答“没有缺陷”,导致 96.2% 的准确率。您获得的那种“幼稚”结果是由于您正在使用的不平衡数据集。本文的目的是回顾可用于解决不平衡类分类问题的不同方法。

大纲

        首先,我们将概述有助于检测“幼稚行为”的不同评估指标。然后,我们将讨论包括重新设计数据集的一大堆方法,并表明这些方法可能会产生误导。最后,我们将证明,在大多数情况下,返工问题是最好的方法。

        由(∞)符号表示的某些小节包含更多的数学细节,可以跳过而不会影响本文的整体理解。另请注意,在下面的大部分内容中,我们将考虑两个类分类问题,但推理可以很容易地扩展到多类情况。

二、检测“幼稚行为”

        在第一节中,我们想提醒评估经过训练的分类器的不同方法,以确保检测到任何类型的“幼稚行为”。正如我们在引言的例子中看到的,准确性虽然是一个重要且不可避免的指标,但可能会产生误导,因此应谨慎使用并与其他指标一起使用。让我们看看可以使用哪些其他工具。

2.1 混淆矩阵、精度、召回率和 F1

        在处理分类问题时应始终使用的一个良好而简单的指标是混淆矩阵。该指标提供了模型表现如何的有趣概述。因此,它是任何分类模型评估的一个很好的起点。我们在下图中总结了可以从混淆矩阵得出的大多数指标

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

混淆矩阵和可以从中派生的指标。

        让我们对这些指标进行简短描述。模型的准确性基本上是正确预测的总数除以预测总数。类的精度定义了当模型回答某个点属于该类时结果的可信度。类的召回表示模型能够检测到该类的程度。一个类的F1分数由精度和召回率的调和平均值(2×精度×召回率/(精度+召回率))给出,它将一个类的精度和召回率组合在一个指标中。

        对于给定的类,召回率和精度的不同组合具有以下含义:

  • 高召回率+高精度:模型完美处理类
  • 低召回率+高精度:该模型不能很好地检测该类,但当它检测到时非常可信
  • 高召回率+低精度:该类被很好地检测到,但模型中还包括其他类的点
  • 低召回率+低精度:模型对类处理不当

        在我们的介绍性示例中,我们有以下 10000 种产品的混淆矩阵。

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

我们介绍性示例的混淆矩阵。请注意,无法计算“有缺陷”的精度。

        如前所述,准确率为96.2%。无缺陷类精度为96.2%,缺陷类精度不可计算。无缺陷类的召回率为1.0,这是完美的(所有无缺陷产品都已贴上标签)。但缺陷类的召回率为0.0,这是最糟糕的情况(未检测到有缺陷的产品)。因此,我们可以得出结论,我们的模型在此类中表现不佳。F1 分数对于有缺陷的产品不可计算,对于无缺陷产品为 0.981。在这个例子中,查看混淆矩阵可能会导致重新思考我们的模型或目标(我们将在以下各节中看到)。它本可以防止使用无用的模型。

中华民国和ROC

        另一个有趣的指标是 ROC 曲线(代表接收器工作特性),它是针对给定类定义的(我们将在下面表示 C)。

        假设对于给定的点 x,我们有一个模型,该模型输出该点属于 C 的概率:P(C | x)。基于这个概率,我们可以定义一个决策规则,包括当且仅当 P(C | x)≥T 时 x 属于类 C,其中 T 是定义我们决策规则的给定阈值。如果 T=1,则仅当模型具有 100% 置信度时,才会将点标记为属于 C。如果 T=0,则每个点都标记为属于 C。

        阈值 T 的每个值都会生成一个点(假阳性、真阳性),然后,ROC 曲线是由 T 从 1 到 0 变化时生成的点集合描述的曲线。该曲线从点 (0,0) 开始,在点 (1,1) 结束,并且正在增加。一个好的模型将有一条从 0 快速增加到 1 的曲线(这意味着只需要牺牲一点精度即可获得高召回率)。

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

根据模型的有效性显示可能的 ROC 曲线。在左边,模型必须牺牲很多精度才能获得高召回率。在右侧,该模型非常有效:它可以在保持高精度的同时达到高召回率。

        基于 ROC 曲线,我们可以构建另一个更易于使用的指标来评估模型:AUROC,即 ROC 曲线下的面积。AUROC 充当汇总整个 ROC 曲线的标量值。可以看出,AUROC 在最佳情况下趋向于 1.0,在最坏情况下趋向于 0.5。
同样,良好的AUROC分数意味着我们正在评估的模型不会牺牲很多精度来获得对观察到的类(通常是少数类)的良好召回。

三、问题到底出在哪里?

        在尝试解决问题之前,让我们尝试更好地理解它。为此,我们将考虑一个非常简单的示例,该示例将使我们能够快速回顾两类分类的一些基本方面,并更好地掌握不平衡数据集的基本问题。此示例也将在以下各节中使用。

3.1 一个不平衡的例子

        假设我们有两个类:C0 和 C1。类 C0 中的点服从均值 0 和方差 4 的一维高斯分布。类 C1 中的点遵循均值 2 和方差 1 的一维高斯分布。还假设在我们的问题中,类 C0 代表数据集的 90%(因此,类 C1 代表剩余的 10%)。在下图中,我们描绘了一个包含 50 个点的代表性数据集,以及两个类的理论分布,比例正确

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

说明我们的不平衡示例。虚线独立表示每个类的概率密度。实线也考虑了比例。

        在此示例中,我们可以看到 C0 类的曲线始终高于 C1 类的曲线,因此,对于任何给定点,该点从类 C0 绘制的概率始终大于从类 C1 绘制的概率。在数学上,使用基本的贝叶斯规则,我们可以写

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

        在这里,我们可以清楚地看到先验的影响,以及它如何导致一个类总是比另一个类更有可能的情况。

        所有这些都意味着,即使从完美的理论角度来看,我们也知道,如果我们必须在这些数据上训练分类器,那么当始终回答 C0 时,分类器的准确性将是最大的。因此,如果目标是训练分类器以获得最佳的准确性,那么它不应该被视为一个问题,而应该被视为一个事实:有了这些功能,我们能做的最好的事情(就准确性而言)就是始终回答 C0。我们必须接受它。

3.2 关于可分离性

        在给定的示例中,我们可以观察到这两个类不能很好地分离(它们彼此相距不远)。但是,我们可以注意到,面对不平衡的数据集并不一定意味着这两个类不能很好地分离,因此,分类器不能很好地处理少数类。例如,假设我们仍然有两个类 C0 (90%) 和 C1 (10%)。C0 中的数据服从均值 0 和方差 4 的一维高斯分布,而 C1 中的数据服从均值 10 和方差 1 的一维高斯分布。如果我们像以前一样绘制数据,那么我们就有

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

在我们的高斯示例中,如果均值相对于方差足够不同,即使是不平衡的类也可以很好地分离。

        在这里,我们看到与前一种情况相反,C0 曲线并不总是高于 C1 曲线,因此,有些点更有可能从类 C1 而不是从类 C0 中提取。在这种情况下,这两个类的分离足以补偿不平衡:分类器不一定总是回答 C0。

3.3 理论最小误差概率(∞)

        最后,我们应该记住,分类器具有理论上的最小误差概率。对于这种分类器(一个特征,两个类),我们可以提到,以图形方式,理论最小误差概率由两条曲线的最小值下的面积给出。

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

两类不同可分离程度的理论最小误差图示。

        我们可以在数学上恢复这种直觉。事实上,从理论的角度来看,最好的分类器将为每个点x选择两个类中最有可能的。这自然意味着,对于给定的点x,最佳理论误差概率由这两个类中可能性较小的给出

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

        然后我们可以表示整体错误概率

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

        这是上面表示的两条曲线的最小值下的面积。

四、返工数据集并不总是解决方案

        首先,面对不平衡的数据集时,第一个可能的反应是考虑数据不能代表现实:如果是这样,我们假设真实数据几乎是平衡的,但在收集的数据中存在比例偏差(例如,由于收集方法)。在这种情况下,几乎必须尝试收集更具代表性的数据。
        现在让我们看看,当数据集不平衡时可以做什么,因为现实就是如此。在接下来的两个小节中,我们将介绍一些经常提到的方法,这些方法用于处理不平衡的类以及处理数据集本身的方法。特别是,我们讨论了与欠采样、过采样和生成合成数据相关的风险,以及获得更多功能的好处。

4.1 欠采样、过采样和生成合成数据

        这些方法通常被认为是在拟合分类器之前平衡数据集的好方法。简而言之,这些方法作用于数据集,如下所示:

  • 欠采样包括从多数类中抽样,以便仅保留这些点的一部分
  • 过采样包括从少数类复制一些点以增加其基数
  • 生成合成数据包括从少数类创建新的合成点(例如,请参阅 SMOTE 方法)以增加其基数

        所有这些方法都旨在重新平衡(部分或全部)数据集。但是我们应该重新平衡数据集以拥有两个类的尽可能多的数据吗?还是应该让多数阶级保持最具代表性?如果是这样,我们应该以什么比例重新平衡?

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

说明不同程度的多数类欠采样对模型决策的影响。

        当使用重采样方法时(例如,从 C0 获取的数据与从 C1 获取的数据一样多),我们在训练期间向分类器显示两个类的错误比例。这样学习的分类器对未来真实测试数据的准确率将低于在未更改数据集上训练的分类器。事实上,了解类的真实比例对于对新点进行分类非常重要,并且在对数据集进行重采样时,该信息已丢失。

        因此,如果这些方法不必被完全拒绝,则应谨慎使用:如果有目的地选择新的比例,它可能会导致相关的方法(我们将在下一节中看到),但只是重新平衡类而不进一步考虑问题也可能是无稽之谈。为了结束本小节,假设使用类似重采样的方法修改数据集正在改变现实,因此需要小心并牢记它对分类器的输出结果意味着什么。

4.2 获取其他功能

        我们在上一小节中讨论了这样一个事实,即根据分类器的真正目的,对训练数据集进行重采样(修改类比例)可能是也可能不是一个好主意。我们特别看到,如果两个类不平衡,不能很好地分离,并且我们以尽可能高的精度定位分类器,那么获得一个总是回答相同类的分类器不一定是一个问题,而只是一个事实:没有什么比这些变量更好的了。

        但是,通过使用附加(或更多)特征丰富数据集,仍然可以在准确性方面获得更好的结果。让我们回到类不能很好地分离的第一个示例:也许我们可以找到一个新的附加功能来帮助区分两个类,从而提高分类器的准确性。

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

寻找其他功能可以帮助分离最初不可分离的两个类。

与上一小节中提到的建议改变数据现实的方法相比,这种包括用来自现实的更多信息丰富数据的方法在可能的情况下是一个更好的主意。

五、返工问题更好

        到目前为止,结论非常令人失望:如果数据集代表真实数据,如果我们无法获得任何附加特征,并且如果我们以最佳的准确性定位分类器,那么“幼稚行为”(总是回答相同的类)不一定是问题,应该被接受为事实(如果幼稚行为不是由于所选分类器的能力有限, 当然)。

        那么,如果我们仍然对这些结果不满意怎么办?在这种情况下,这意味着,以一种或另一种方式,我们的问题没有得到很好的陈述(否则我们应该接受结果的本来面目),我们应该重新设计它以获得更令人满意的结果。让我们看一个例子。

5.1 基于成本的分类

        获得的结果不好的感觉可能来自目标函数没有很好地定义的事实。到目前为止,我们假设我们以高精度定位分类器,同时假设两种错误(“假阳性”和“假阴性”)具有相同的成本。在我们的示例中,这意味着我们假设当真实标签为 C0 时预测 C1 与在真实标签为 C1 时预测 C0 一样糟糕。然后错误是对称的。

        让我们考虑有缺陷的 (C1) 和没有缺陷的 (C0) 产品的介绍性示例。在这种情况下,我们可以想象,不检测到有缺陷的产品会给公司带来更多的成本(客户服务成本,如果存在危险缺陷,则可能的法律成本,...)比错误地将没有缺陷的产品标记为有缺陷(生产成本损失)。现在,当真标签为 C0 时预测 C1 比在真标签为 C1 时预测 C0 要差得多。错误不再是对称的。

        然后更具体地考虑我们有以下成本:

  • 当真实标签为 C0 时预测 C1 的成本为 P01
  • 当真实标签为 C1 时预测 C0 的成本为 P10(0 < P10 << P01)

        然后,我们可以重新定义我们的目标函数:我们不再以最佳准确性为目标,而是寻找较低的预测成本。

5.2 理论最小成本 (∞)

从理论角度来看,我们不想最小化上面定义的误差概率,而是最小化由

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

其中 C(.) 定义分类器函数。因此,如果我们想最小化预期的预测成本,理论上的最佳分类器 C(.) 最小化

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

或等价地,除以 x,C(.) 的密度最小化

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

因此,有了这个目标函数,从理论角度来看,最好的分类器将是这样的:

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

请注意,当成本相等时,我们恢复“经典”分类器的表达式(专注于准确性)。

5.3 概率阈值

        在我们的分类器中考虑成本的第一个可能方法是在训练后进行。这个想法是,首先,训练分类器输出以下概率的基本方法

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

        无需承担任何费用。然后,预测的类将为 C0,如果

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

        否则为 C1。

        在这里,我们使用哪个分类器并不重要,只要它输出给定点的每个类的概率即可。在我们的主示例中,我们可以在数据上拟合贝叶斯分类器,然后我们可以重新加权获得的概率,以使用描述的成本误差调整分类器。

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

概率阈值方法的图示:对输出的概率进行重新加权,以便在最终决策规则中考虑成本。

5.4 类重新加权

        类重新加权的想法是在分类器训练期间直接考虑成本误差的不对称性。这样,每个类的输出概率已经嵌入了成本错误信息,然后可用于定义具有简单 0.5 阈值的分类规则。

        对于某些模型(例如神经网络分类器),在训练期间考虑成本可能包括调整目标函数。我们仍然希望我们的分类器输出

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

        但这次它经过训练,以最小化以下成本函数

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

        对于其他一些模型(例如贝叶斯分类器),重采样方法可用于偏置类比例,以便在类比例内输入成本误差信息。如果我们考虑成本 P01 和 P10(例如 P01 > P10),我们可以:

  • 将少数类过采样因子 P01/P10(少数类的基数应乘以 P01/P10)
  • 多数类的欠采样系数 P10/P01(多数类的基数应乘以 P10/P01)

【机器学习】处理不平衡的数据集,机器学习,人工智能,机器学习,大数据

类加权法的图示:多数类的抽样不足,其比例经过精心选择,以直接在类比例内引入成本信息。

六、总结

本文的主要内容是:

  • 每当使用机器学习算法时,都必须谨慎选择模型的评估指标:我们必须使用能够让我们最好地了解模型在目标方面做得如何的指标。
  • 在处理不平衡的数据集时,如果类不能与给定变量很好地分离,并且我们的目标是获得最佳的准确性,则最佳分类器可以是始终回答多数类的“幼稚”分类器
  • 可以使用重采样方法,但必须仔细考虑:它们不应用作独立的解决方案,而必须与问题的返工相结合以服务于特定目标
  • 重新设计问题本身通常是解决不平衡类问题的最佳方法:分类器和决策规则必须针对一个精心选择的目标进行设置,例如,可以最小化成本

        我们应该注意到,我们还没有讨论过像“分层采样”这样的技术,这些技术在批量训练分类器时很有用。当遇到不平衡类问题时,这些技术可确保在训练过程中提高稳定性(通过消除批次内的比例方差)。

        最后,假设本文的主要关键字是“目标”。确切地知道您想要获得的内容将有助于克服不平衡的数据集问题,并确保获得最佳结果。完美地定义目标应该始终是第一件事,并且是创建机器学习模型所必须进行的任何选择的起点。巴蒂斯特·罗卡文章来源地址https://www.toymoban.com/news/detail-665445.html

·

到了这里,关于【机器学习】处理不平衡的数据集的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 第九课:机器学习与人工智能、计算机视觉、自然语言处理 NLP及机器人

    各位小伙伴想要博客相关资料的话关注公众号:chuanyeTry即可领取相关资料! 以区分飞蛾为例: 标记数据如下。 虚线为决策边界如下。 右下角表为混淆矩阵。 本质上是用任意线段来切分决策空间,不一定是直线。 不用统计学的算法。模拟人类学习的过程,将数据进行加权求

    2024年02月03日
    浏览(104)
  • 大数据、人工智能、机器学习、深度学习关系联系前言

    1.大数据和人工智能关系 2.机器学习、深度学习、人工智能关系 3.监督学习、无监督学习、半监督学习、强化学习、迁移学习关系 4.机器学习具体内容 1.数据驱动的人工智能 :人工智能系统需要大量的数据来进行训练和学习。大数据提供了海量的信息,可以用于训练机器学习

    2024年02月12日
    浏览(62)
  • 智能数据应用在人工智能与机器学习中的应用

    人工智能(Artificial Intelligence,AI)和机器学习(Machine Learning,ML)是当今最热门的技术领域之一。它们的核心是智能数据应用,即利用大量数据和高效算法来模拟、自动化和优化复杂任务。智能数据应用在各个领域都有广泛的应用,如自然语言处理、计算机视觉、推荐系统、

    2024年01月22日
    浏览(50)
  • 数据分析的未来:机器学习和人工智能的革命

    数据分析是现代科学和工业的核心技术,它涉及到大量的数据收集、存储、处理和分析。随着数据的增长和复杂性,传统的数据分析方法已经不能满足需求。机器学习和人工智能技术正在革命化数据分析领域,为我们提供了更高效、准确和智能的解决方案。 在本文中,我们将

    2024年02月20日
    浏览(147)
  • 数据分析师在人工智能与机器学习领域的重要作用

    人工智能(Artificial Intelligence, AI)和机器学习(Machine Learning, ML)是当今最热门的技术领域之一,它们正在驱动我们进入第四次工业革命。这些技术正在改变我们的生活方式、工作方式和社会结构。数据分析师在这个领域的作用非常重要,因为他们是在这个领域中的核心组成部分。

    2024年02月19日
    浏览(48)
  • 数据一致性在人工智能与机器学习中的应用

    数据一致性是指在分布式系统中,当多个节点或进程访问和修改共享数据时,确保所有节点或进程看到的数据都是一致的状态。在人工智能(AI)和机器学习(ML)领域,数据一致性是一个重要且复杂的问题。随着数据规模的增加,分布式计算变得越来越普遍,这使得数据一致性问

    2024年02月21日
    浏览(57)
  • Java在物联网领域的应用非常广泛,涵盖了设备连接、数据处理、应用程序开发、安全性、嵌入式系统开发、消息队列和流处理、机器学习和人工智能以及跨平台和多语言集成等方面

    Java作为一种通用编程语言,在物联网(IoT)领域的应用也非常广泛。以下是一些Java在物联网中的典型应用: 开发物联网应用程序 :Java是一种高级编程语言,具有丰富的库和工具,使得开发物联网应用程序变得容易。Java可以用于开发各种物联网应用程序,如智能家居、智能

    2024年02月03日
    浏览(78)
  • 数据产品化的人工智能与机器学习:如何融合到数据产品中

    人工智能(Artificial Intelligence, AI)和机器学习(Machine Learning, ML)是当今最热门的技术领域之一,它们在各个行业中发挥着越来越重要的作用。然而,在实际应用中,将人工智能和机器学习技术融入到数据产品中仍然面临着许多挑战。这篇文章将探讨如何将人工智能和机器学习技术

    2024年02月19日
    浏览(51)
  • 人工智能+物联网:从传感器到机器学习:智能化的数据采集和分析

    作者:禅与计算机程序设计艺术 大数据时代是一个数据爆炸的时代。如何从海量数据中快速找到隐藏在其中价值的信息,成为当今企业竞争中不可或缺的能力?人工智能和物联网正在成为经济领域和产业界的主流,新一代互联网物联网平台、AI智能终端、海量数据和算法驱动

    2024年02月09日
    浏览(73)
  • 数据探索的人工智能与机器学习:如何应用AI技术提高分析效率

    数据探索是数据科学家和机器学习工程师在处理新数据集时所经历的过程。在这个过程中,他们需要理解数据的结构、特征和关系,以便为业务提供有价值的见解。然而,随着数据规模的增加,手动进行这些分析变得越来越困难。因此,人工智能和机器学习技术在数据探索领

    2024年02月20日
    浏览(87)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包