论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning

这篇具有很好参考价值的文章主要介绍了论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文链接:https://arxiv.org/pdf/2102.11165.pdf

 文章来源地址https://www.toymoban.com/news/detail-625488.html

目录

摘要:

引言

问题定义

方法

Graph Deviation Networks

Cross-network Meta-learning


摘要:

        网络异常检测旨在找到与绝大多数行为显着不同的网络元素(例如节点、边、子图)。它对从金融、医疗保健到社交网络分析等各种应用产生了深远的影响。

        由于难以承受的标签成本,现有方法主要是以无监督的方式开发的。尽管如此,由于缺乏对感兴趣的异常的先验知识,他们识别的异常可能会变成数据噪声或无趣的数据实例。

        因此,研究和开发网络异常检测的小样本学习至关重要。在现实场景中,很少有标记的异常也很容易在与目标网络相同域的类似网络上访问,而大多数现有工作都忽略了利用它们,而仅仅关注单个网络。

        利用这一潜力,在这项工作中,我们通过(1)提出一个新的图神经网络系列——图偏差网络(GDN)来解决小样本网络异常检测的问题,它可以利用少量标记的异常来检测强制网络上异常节点和正常节点之间存在统计显着偏差; (2)为所提出的GDN配备了一种新的跨网络元学习算法,通过从多个辅助网络传输元知识来实现​​小样本网络异常检测。广泛的评估证明了所提出的方法在少量甚至一次性网络异常检测方面的有效性。

引言

        由于标记异常是高度劳动密集型的,并且需要专门的领域知识,现有的方法主要是以无监督的方式开发的。作为一种流行的范式,人们尝试用基于自动编码器的模型的重建误差[6, 18]或基于矩阵分解的方法的残差[2,17,34]来测量节点的异常。

        然而,由于缺乏对感兴趣的异常的先验知识,他们识别的异常可能会变成数据噪声或不感兴趣趣的数据实例。该问题的一个潜在解决方案是利用有限或很少的标记异常作为先验知识来学习异常通知模型,因为它在现实场景中成本相对较低 - 一小组标记异常可以来自已部署的检测系统或由用户反馈提供。与此同时,这些有价值的知识通常分散在目标网络同一域内的其他网络中,可以进一步利用这些网络来提取监督信号。

        可以将 ACM 和 DBLP 视为计算机科学领域中具有类似引文关系的引文网络。根据之前的研究[33,51,52],由于拓扑结构和节点属性的相似性,将有价值的知识从源网络转移到目标网络,从而提高目标网络的性能是可行的。因此,在这项工作中,我们建议研究跨网络设置下的少样本网络异常检测的新问题。

        尽管如此,解决这个尚未探索的问题仍然很重要,主要是由于以下原因:(1)从微观(网络内)的角度来看,由于我们对异常的了解有限,因此很难精确地描述异常模式。如果我们直接采用现有的半监督[37]或PU[40]学习技术,这些方法往往无法达到令人满意的结果,因为它们可能仍然需要相对较大比例的正例[23]。为了处理如图1(a)所示的这种不完全监督挑战[47],有必要探索如何利用尽可能少的标记异常来学习正常模式的高级抽象,而不是关注异常节点; (2)从宏观(网络间)的角度来看,虽然同一域内的网络总体上可能具有相似的特征,但不同网络中存在的异常可能来自非常不同的流形。先前关于跨网络学习的研究[29, 41]大多集中于仅从单个网络迁移知识,这可能会导致结果不稳定和负迁移的风险。由于从多个网络中学习可以提供有关异常特征的更全面的知识,因此非常需要一种能够适应这些知识的跨网络学习算法

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

 (图 1:由于异常通常具有不同的模式,(a) 现有方法可能很容易无法将它们与潜在表示空间中的正常节点区分开来,而标记的异常很少,(b) 虽然它们可以在异常得分空间中通过以下方式很好地分离:强制异常节点和正常节点之间存在统计显着偏差。)

        为了应对上述挑战,我们在这项工作中首先设计了一种新的 GNN 架构,即图形偏差网络(GDN),以便在标注数据有限的情况下进行网络异常检测。具体来说,给定一个任意网络,GDN 首先使用一个 GNN 骨干异常得分学习器为每个节点分配异常得分,然后根据先验概率定义异常得分的平均值,作为指导后续异常得分学习的参考得分。通过利用偏差损失[23],GDN 能够在异常得分空间中强制执行异常节点的异常得分与正常节点的异常得分在统计上的显著偏差(如图 1(b)所示)。为了进一步将这一能力从多个网络转移到目标网络,我们提出了一种跨网络元学习算法,从多个少量网络异常检测任务中学习通用性良好的 GDN 初始化。无缝集成的框架 Meta-GDN 能够提取用于检测多个网络异常的综合元知识,这在很大程度上缓解了从单一网络迁移的局限性。随后,初始化可以通过微调轻松适应目标网络,只需少量甚至一个标注异常点,就能在很大程度上提高目标网络的异常检测性能。总而言之,我们的主要贡献有三个方面:

        问题:据我们所知,我们是第一个研究小样本网络异常检测这一新问题的人。值得注意的是,我们建议通过跨多个网络转移知识来解决这个问题。

        算法:我们提出了一个原则框架 Meta-GDN,它集成了一系列新的图神经网络(即 GDN)和跨网络元学习,以检测带有少量标记实例的异常。

        评估:我们进行了大量的实验来证实我们方法的有效性。实验结果证明了 Meta-GNN 在网络异常检测方面优于最先进的方法。

问题定义

        在本节中,我们正式定义少样本跨网络异常检测问题。在整篇论文中,我们使用粗体大写字母表示矩阵(例如,A),粗体小写字母表示向量(例如,u),小写字母表示标量(例如,𝑠),并使用书法字体来表示集合(例如,V)。值得注意的是,在这项工作中,我们专注于属性网络以实现更通用的目的。给定一个属性网络 G = (V, E, X),其中 V 是节点集,即 {𝑣1, 𝑣2,…。 。 。 , 𝑣𝑛},E 表示边的集合,即 {𝑒1, 𝑒2, . 。 。 ,𝑒𝑚}。节点属性由 X = [x T 1 , x T 2 , · · · , x T 𝑛 ] ∈ R 𝑛×𝑑 表示,x𝑖 是节点 𝑣𝑖 的属性向量。更具体地说,我们将属性网络表示为 G = (A, X),其中 A = {0, 1} 𝑛×𝑛 是表示网络结构的邻接矩阵。具体来说,A𝑖,𝑗 = 1 表示节点 𝑣𝑖 和节点 𝑣𝑗 之间存在边;否则,A𝑖,𝑗 = 0

        一般来说,少样本跨网络异常检测旨在通过从辅助网络传输非常有限的ground truth异常监督知识来最大限度地提高目标网络的检测性能。除了目标网络 G𝑡 之外,在这项工作中,我们假设还存在 𝑃 辅助网络 G 𝑠 = {G𝑠 1 , G𝑠 2 , 。 。 。 , G𝑠 𝑃 } 与 G𝑡 共享相同或相似的域。对于属性网络,标记的异常节点的集合表示为 V𝐿,未标记的节点的集合表示为 V𝑈 。请注意 V = {V𝐿 , V𝑈 } 并且在我们的问题中 |V𝐿 |≪ |V𝑈 |因为只给出了少量的标记数据。由于网络异常检测通常被表述为排序问题[1],我们正式定义少样本跨网络异常检测问题如下:

        问题 1. 小样本跨网络异常检测:给定: 𝑃 辅助网络,即 G 𝑠 = {G𝑠 1 = (A 𝑠 1 , X 𝑠 1 ), G𝑠 2 = (A 𝑠 2 , X 𝑠 2 ), 。 。 。 , G𝑠 𝑃 = (A 𝑠 𝑃 , X 𝑠 𝑃 )} 和目标网络 G𝑡 = (A 𝑡 , X 𝑡 ),每个网络都包含一组少样本标记异常(即 V𝐿 1 , V𝐿 2 , . . . , V𝐿 𝑃 和 V𝐿 𝑡 )

        目标:学习一个异常检测模型,该模型能够利用来自多个辅助网络的真实异常知识,即 {G𝑠 1 , G𝑠 2 , . 。 。 , G𝑠 𝑃 },检测目标网络 G𝑡 中的异常节点。理想情况下,检测到的异常应该比正常节点具有更高的排名分数。

方法

        在本节中,我们将介绍所提出的框架 - 用于小样本网络异常检测的 Meta-GDN 的详细信息。具体来说,Meta-GDN 通过以下两个关键贡献解决了所讨论的挑战:(1)图偏差网络(GDN),一个新的图神经网络系列,可以使用有限的标记数据对任意单个网络进行异常检测; (2) 跨网络元学习算法,使 GDN 能够跨多个辅助网络传输元知识,以实现对目标网络的小样本异常检测。图 2 概述了拟议的 Meta-GDN。

Graph Deviation Networks

         为了能够在具有少量标记数据的任意网络上进行异常检测,我们首先提出了一个新的图神经网络系列,称为图偏差网络(GDN)。

        由三个关键构建块组成,包括(1)用于学习节点表示的网络编码器; (2)异常评估器,用于评估每个节点的异常得分; (3) 用于优化带有少量标记异常的模型的偏差损失。详情如下所示:

        网络编码器。为了从输入网络学习表达节点表示,我们首先构建网络编码器模块。具体来说,它由多个 GNN 层构建,将每个节点编码为低维潜在表示。一般来说,GNN 遵循邻域消息传递机制,并通过以迭代方式聚合局部邻域的特征来计算节点表示。形式上,通用 GNN 层使用两个关键函数计算节点表示:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         为了捕获网络中的远程节点依赖性,我们在网络编码器中堆叠多个 GNN 层。因此,网络编码器可以表示为:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         异常评估器。然后,从网络编码器学习到的节点表示将被传递给异常评估器𝑓𝜽𝑠(·),以进一步估计每个节点的异常情况。具体来说,异常评估器由两个前馈层构建,将中间节​​点表示转换为标量异常分数:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         偏差损失。本质上,GDN 的目标是根据计算出的带有少样本标签的异常分数来区分正常节点和异常节点。在这里,我们建议采用偏差损失[23]来强制模型为那些特征显着偏离正常节点的节点分配较大的异常分数。为了指导模型学习,我们首先定义一个参考分数(即𝜇𝑟)作为一组随机选择的正常节点的异常分数的平均值。它可以作为量化异常节点的分数与正常节点的偏差程度的参考。

        根据之前的研究 [15, 23],高斯分布通常是拟合各种数据集的异常分数的稳健选择。基于这个假设,我们首先从高斯先验分布中采样一组 𝑘 异常分数,即 R = {𝑟1, 𝑟2, 。 。 。 , 𝑟𝑘 } ∼ N(𝜇, 𝜎2 ),其中每一个表示随机正常节点的异常。参考分数计算为所有采样分数的平均值:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         有了参考分数𝜇𝑟,节点𝑣𝑖的异常分数与参考分数之间的偏差可以用标准分数的形式定义:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         其中 𝜎𝑟 是采样异常分数集的标准差 R = {𝑟1, . 。 。 ,𝑟𝑘}。然后,通过将距离函数替换为式(6)中的偏差,可以从对比损失[11]中导出最终的目标函数:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         其中 𝑦𝑖 是输入节点 𝑣𝑖 的真实标签。如果节点 𝑣𝑖 是异常节点,则 𝑦𝑖 = 1,否则,𝑦𝑖 = 0。请注意,𝑚 是定义偏差周围半径的置信边际

        通过最小化上述损失函数,GDN 会将正常节点的异常分数尽可能接近 𝜇𝑟,同时强制 𝜇𝑟 与异常节点的异常分数之间至少有 𝑚 的较大正偏差。这样,GDN 就能够学习正常模式的高级抽象,而标记的异常要少得多,并使节点表示学习能够区分正常节点和罕见异常。因此,如果节点的模式显着偏离学习到的正常模式的抽象,则将向该节点分配较大的异常分数

        我们的初步结果表明,只要 𝜎 不太大,GDN 对 𝜇 和 𝜎 的选择并不敏感。具体来说,我们在实验中设置𝜇=0和𝜎=1,这有助于GDN在不同数据集上实现稳定的检测性能。还值得一提的是,由于我们无法访问正常节点的标签,因此我们简单地将 V𝑈 中未标记的节点视为正常节点。请注意,这样剩余的未标记异常和所有正常节点将被视为正常,从而将污染引入到训练集中(即未标记异常与总未标记训练数据 V𝑈 的比率)。值得注意的是,GDN 通过使用这种简单的策略表现非常好,并且对不同的污染水平具有鲁棒性。第 2 节评估了不同污染水平对模型性能的影响。 5.4.

Cross-network Meta-learning

        有了所提出的图偏差网络(GDN),我们能够有效地检测具有有限标记数据的任意网络上的异常。当来自目标网络同一域的辅助网络可用时,如何传递这些有价值的知识是在目标网络上实现少样本异常检测的关键。尽管它具有可行性,但如果我们直接借用现有跨网络学习方法的思想,性能将相当有限。主要原因是这些方法仅仅专注于从单个网络转移知识[29, 41],这可能会由于不同网络上的异常特征不同而导致负转移。为此,我们转而利用多个辅助网络来提取异常的全面知识。

        作为提取和转移知识的有效范式,元学习由于在各种高影响力领域的广泛应用,最近受到越来越多的研究关注[8,19,20,27,36,38]。本质上,元学习的目标是在各种学习任务上训练模型,使得学习到的模型能够有效地适应很少甚至只有一个标记数据的新任务[13]。特别是,芬恩等人 [10]提出了一种与模型无关的元学习算法来显式地学习模型参数,使得模型可以通过少量的梯度步骤和有限的标记数据实现对新任务的良好泛化。受这项工作的启发,我们建议学习一个元学习器(即 Meta-GDN)作为来自多个辅助网络的 GDN 的初始化,它具有有效识别新目标网络上异常节点的泛化能力。具体来说,Meta-GDN 在训练阶段从辅助网络上的不同小样本网络异常检测任务中提取真实异常的元知识,并将针对目标网络上的新任务进行进一步微调,使得模型可以做出快速有效的适应

        我们将每个学习任务定义为在单个网络上执行少量异常检测,其目标是强制将大异常分数分配给等式(7)中定义的异常。 令 T𝑖 表示由网络 G𝑠 𝑖 构建的少样本网络异常检测任务,那么每个时期我们都有 𝑃 学习任务。我们考虑由带有参数 𝜽 的参数化函数 𝑓𝜽 表示的 GDN 模型。给定 𝑃 任务,优化算法首先针对每个学习任务 T𝑖 独立调整初始模型参数 𝜽 至 𝜽 ′ 𝑖。具体来说,更新的参数 𝜽 ′ 𝑖 是使用 LT𝑖 对从 G𝑠 𝑖 中的 V𝐿 𝑖 和 V𝑈 𝑖 采样的一批训练数据计算的。形式上,一步梯度的参数更新可以表示为:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         通过在所有学习任务中优化 𝑓𝜽 相对于 𝜽 的最佳性能来训练模型参数。更具体地,元目标函数定义如下:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         通过优化 GDN 的目标,更新后的模型参数可以保留检测每个网络异常的能力。由于元优化是在参数𝜽上执行的,目标是使用所有任务的更新参数计算的,相应地,模型参数被优化,使得目标任务(网络)上的一个或少量梯度步骤将产生巨大的效果。

        形式上,我们利用随机梯度下降(SGD)来更新所有任务的模型参数𝜽,使得模型参数𝜽更新如下:

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

         其中 𝛽 是元步长。完整的算法总结在算法 1 中。具体来说,对于每个批次,我们从未标记数据(即 V𝑈 )和标记异常数据(即 V𝐿 )中随机采样相同数量的节点,分别表示正常和异常节点(步骤- 4).

论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning,图异常节点检测,论文阅读

 

到了这里,关于论文阅读 - Few-shot Network Anomaly Detection via Cross-network Meta-learning的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读---Albert :Few-shot Learning with Retrieval Augmented Language Models

    增强语言模型 Augmented Language Models https://arxiv.org/abs/2208.03299 提前知识: BERT (Bidirectional Encoder Representations from Transformers)是一种预训练语言模型,它通过在大规模文本数据上进行预训练,学习文本的双向表示,并在多种NLP任务中展现出卓越的性能。BERT的双向性意味着它能够

    2024年04月23日
    浏览(27)
  • 【论文阅读24】Better Few-Shot Text Classification with Pre-trained Language Model

    论文标题:Label prompt for multi-label text classification(基于预训练模型对少样本进行文本分类) 发表时间:2021 领域:多标签文本分类 发表期刊:ICANN(顶级会议) 相关代码:无 数据集:无 最近,预先训练过的语言模型在许多基准测试上都取得了非凡的性能。通过从一个大型的

    2024年02月14日
    浏览(31)
  • 遥感图像中的小样本目标检测:Few-shot Object Detection on Remote SensingImages

    论文下载:https://arxiv.org/pdf/2006.07826v2.pdf        在本文中,我们处理遥感图像上的目标检测问题。以前的方法已经发展了许多基于深度卷积的遥感图像目标检测方法,在检测性能和效率方面取得了显著的成就。然而,目前基于CNN的方法大多需要大量带注释的样本来训练深层

    2024年02月03日
    浏览(29)
  • 《SimpleNet: A Simple Network for Image Anomaly Detection and Localization》论文阅读理解

    将预训练特征转换为面向目标的特征有助于避免图像局部偏见的出现; 在特征空间中生成合成异常更有效,因为缺陷在图像空间中可能没有太多共性存在; 一个简单的鉴别器是非常有效和实用的; 提出了一种简单且容易应用的网络(SimpleNet),用于检测和定位异常; 在MV

    2024年02月08日
    浏览(43)
  • few-shot / one shot / zero shot object counting论文汇总

    code: https://paperswithcode.com/paper/class-agnostic-counting 摘要:几乎所有现有的计数方法都是为一个特定的对象类而设计的。然而,我们的工作旨在创建一个能够计数任何类对象的计数模型。为了实现这一目标,我们将计数表述为一个匹配问题,使我们能够利用对象计数问题中自然存

    2024年02月09日
    浏览(36)
  • 【图像异常检测】SimpleNet: A Simple Network for Image Anomaly Detection and Localization 论文阅读

    中文标题:SimpleNet:一个简单的图像异常检测和定位网络 文章信息: 发表于:CVPR 2023 原文链接:https://arxiv.org/abs/2303.15140 源代码:https://github.com/DonaldRR/SimpleNet 我们提出了一种简单且易于应用的网络(称为SimpleNet)来检测和定位异常。SimpleNet由四个组件组成:(1)预训练的

    2024年04月17日
    浏览(45)
  • 论文笔记|CVPR2023:Semantic Prompt for Few-Shot Image Recognition

    论文地址:https://arxiv.org/pdf/2303.14123.pdf 这是一篇2023年发表在CVPR上的论文,论文题目是Semantic Prompt for Few-Shot Image Recognitio,即用于小样本图像识别的语义提示。 第一,最近几项研究利用 语义信息 来进行小样本学习的研究。 一方面因为通过少量样本去识别新类别很难,就想使

    2024年02月04日
    浏览(38)
  • 论文笔记|CVPR2023:Supervised Masked Knowledge Distillation for Few-Shot Transformers

    这篇论文的题目是 用于小样本Transformers的监督遮掩知识蒸馏 论文接收: CVPR 2023 论文地址: https://arxiv.org/pdf/2303.15466.pdf 代码链接: https://github.com/HL-hanlin/SMKD 1.ViT在小样本学习(只有少量标记数据的小型数据集)中往往会 过拟合,并且由于缺乏 归纳偏置 而导致性能较差;

    2024年02月06日
    浏览(37)
  • Spectral Adversarial MixUp for Few-Shot Unsupervised Domain Adaptation论文速读

    域偏移是临床应用中的常见问题,其中训练图像(源域)和测试图像(目标域)处于不同的分布下。已经提出了无监督域适应 (UDA) 技术,以使在源域中训练的模型适应目标域。但是,这些方法需要来自目标域的大量图像进行模型训练。 本文提出了一种新的少样本无监督域

    2024年04月28日
    浏览(30)
  • 论文精读:用于少样本图像识别的语义提示(Semantic Prompt for Few-Shot Image Recognition)

    原论文于2023.11.6撤稿,原因:缺乏合法的授权 ,详见此处 在小样本学习中(Few-shot Learning, FSL)中,有通过利用额外的语义信息,如类名的文本Embedding,通过将语义原型与视觉原型相结合来解决样本稀少的问题。但这种方法可能会遇到稀有样本中学到噪声特征导致收益有限。

    2024年02月08日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包