论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...

这篇具有很好参考价值的文章主要介绍了论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...,语言模型,人工智能,自然语言处理

笔记整理:田家琛,天津大学博士,研究方向为文本分类

链接:https://ojs.aaai.org/index.php/AAAI/article/view/26599

动机

近年来,随着预训练语言模型(PLMs)在情感分类领域的广泛应用,PLMs中存在的命名实体情感偏差问题也引起了越来越多的关注。具体而言,当前的PLMs基于神经上下文编码器,倾向于将某些命名实体上下文中的情感信息应用到表示学习过程中,使得命名实体与情感之间容易形成虚假的相关性。本文提出了一种基于自适应Gumbel攻击的情感分类器Gater,在保证文本语义一致性的前提下,利用对抗攻击策略缓解情感偏差问题。首先,该分类器内置多个可生成Gumbel噪声的专家网络,通过最小化网络输出之间的互信息来增加噪声多样性。然后,在模型训练期间,利用Gumel噪声攻击分类器输出,根据攻击前后置信度的变化情况判断攻击是否有效。最后,采用多路参数优化算法将多个专家网络参数和分类器参数进行融合,使分类器对专家网络模拟的情感偏差产生免疫。实验结果表明,该方法在不破坏情感分类性能的前提下,有效地缓解了PLMs中存在的命名实体情感偏差问题。

亮点

Gater的亮点主要包括:

(1) 提出利用Gumbel噪声缓解命名实体情感偏差。Gumbel分布作为第一类型的广义极值分布,采样噪声大部分来自于分布的尾部,对分类器输出的改动幅度较小,有利于保护其原有的语义分布。

(2) 提出多路参数优化算法。根据专家网络的攻击效果,将多个专家网络的参数融合到分类模型中,有效地丰富了模型的参数更新方向。

模型简介

如图1所示,在前向传播阶段,Gater自适应地为原始分类器  添加  个专家网络,每个专家网络包含一个攻击模块  和一个基础模块  ,其中  。  负责模拟有情感偏差的情况,  负责模拟没有情感偏差的情况,它们经过对比之后输出模拟的情感偏差,用来攻击  中的情感偏差。

具体而言,  和  的输入是仅包含命名实体的文本向量表示。训练每个专家网络时,Gater通过最大化  输入与输出之间的互信息(损失函数  ),保证  中的情感偏差不再变化;通过最大化  输出与加入Gumbel噪声的输入之间的互信息(损失函数  ),使  学会Gumbel攻击;通过最小化  之间的互信息(损失函数  ),保证Gumbel噪声的多样性。此外,模型使用Softmax层的输出来评估采样效果。在下一轮的训练中,效果不好的专家网络将被重置参数。

在反向传播阶段,多路参数优化算法的目标是融合  与每个  和  的参数,使  获得情感去偏的能力。例如,对于  进行参数更新,首先使用梯度下降算法更新  的参数,并进一步融合  、  和  的参数。即:

论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...,语言模型,人工智能,自然语言处理

其中,  指的是  在第  个训练批次时的参数。  是选择的损失函数。  是  在第  个训练批次时的平均置信度。当 μ 时,表明第  个专家网络无法降低情感偏差,因此分类器  的参数应该远离第  个专家网络的参数。当 μ 时,表示第  个专家网络实现了情感去偏,因此分类器  的参数应该与第  个专家网络的参数接近。当 μ 时,表示第  个专家网络无效,应该保持分类器  原有的参数更新方向。

论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...,语言模型,人工智能,自然语言处理

图1  Gater总体架构图

实验

本文在七个真实数据集上进行实验,它们分别是IMDb、SST-2、YELP-2、YELP-5、Amazon-2、Amazon-5和SemEval。此外,本文选择的预训练模型分别是BERT、RoBERT、ALBERT和ELECTRA。

之前的研究发现,目前的去偏方法可能会过度去偏,导致下游任务的性能下降。实验结果表明(表1),Gater可以有效地避免过度去偏问题,且每个PLM的分类性能都比原始版本提升了0.0到2.0。

论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...,语言模型,人工智能,自然语言处理表1 分类性能

本文使用NLTK版本的词性标记工具从每个数据集中随机选择400个命名实体,然后通过情感转移测试计算这些命名实体的情感得分。得分越高,情感偏差越严重。图2反映了这些实体在使用Gater前后的情感偏差变化。对于每个数据集,Gater将情感偏差保持在较低的水平,即这些命名实体的情感得分接近于0。相比之下,在不使用Gater的情况下,这些命名实体具有较高的情感得分。这说明Gater有效地减少了情感偏差。

论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...,语言模型,人工智能,自然语言处理

论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...,语言模型,人工智能,自然语言处理

图2 情感去偏

总结

本文提出了一种基于自适应Gumbel攻击的情感分类器Gater,从对抗攻击的角度缓解了PLMs中的命名实体情感偏差。现实世界中的命名实体是复杂和多样的,它们的特征和属性会随着时间和不同的环境而变化。随着PLMs在现实场景中的广泛应用,Gater可以快速调整PLMs对命名实体的情感倾向性,从而有效地提高情感分类系统的鲁棒性。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

点击阅读原文,进入 OpenKG 网站。
文章来源地址https://www.toymoban.com/news/detail-686953.html

到了这里,关于论文浅尝 | 利用对抗攻击策略缓解预训练语言模型中的命名实体情感偏差问题...的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文浅尝 | 预训练Transformer用于跨领域知识图谱补全

    笔记整理:汪俊杰,浙江大学硕士,研究方向为知识图谱 链接:https://arxiv.org/pdf/2303.15682.pdf 动机 传统的直推式(tranductive)或者归纳式(inductive)的知识图谱补全(KGC)模型都关注于域内(in-domain)数据,而比较少关注模型在不同领域KG之间的迁移能力。随着NLP领域中迁移学习的成功,

    2024年02月15日
    浏览(39)
  • 论文浅尝 | 大语言模型综述

    笔记整理:刘康为、方润楠,浙江大学硕士,研究方向为自然语言处理 链接:https://arxiv.org/abs/2303.18223 一、介绍 在当前机遇和挑战的背景下,对大语言模型的研究和开发需要更多的关注。为了让读者对大语言模型有一个基本的了解,本调查从四个主要方面对大语言模型进行

    2024年02月12日
    浏览(40)
  • 【论文阅读】对抗溯源图主机入侵检测系统的模仿攻击(NDSS-2023)

    作者:伊利诺伊大学芝加哥分校-Akul Goyal、Gang Wang、Adam Bates;维克森林大学-Xueyuan Han、 引用:Goyal A, Han X, Wang G, et al. Sometimes, You Aren’t What You Do: Mimicry Attacks against Provenance Graph Host Intrusion Detection Systems[C]//30th Network and Distributed System Security Symposium. 2023. 原文地址:https://www.n

    2024年02月13日
    浏览(32)
  • 学习笔记:Pytorch利用MNIST数据集训练生成对抗网络(GAN)

    2023.8.27        在进行深度学习的进阶的时候,我发了生成对抗网络是一个很神奇的东西,为什么它可以“将一堆随机噪声经过生成器变成一张图片”,特此记录一下学习心得。         2014年,还在蒙特利尔读博士的Ian Goodfellow发表了论 文《Generative Adversarial Networks》(网址

    2024年02月10日
    浏览(36)
  • 【对抗攻击论文笔记】对抗迁移性:Delving Into Transferable Adversarial Examples And Black-Box Attacks

    发表于ICLR2017,论文地址:https://arxiv.org/pdf/1611.02770——深入研究可迁移的对抗样本和黑盒攻击 迁移性是指 一个模型生成的一些对抗样本也可能被另一个模型错误分类 。 这篇文章其实是基于 Transferability in Machine Learning: from Phenomena to Black-Box Attacks using Adversarial Samples 的改进和

    2023年04月08日
    浏览(56)
  • 机器学习:自然语言处理上的对抗式攻击

    相关话题 Introduction 以前的攻击专注于图像和语音上,而NLP上的内容比较少。而NLP的复杂度跟词典有关系: NLP只能在embedding后的特征上加噪声 Evasion Attacks 电影的评论情感分类,将 film 换成 films 后,评论从消极变成了积极。 结构分析,如果改一个词后,结果完全不一样。 模

    2024年02月09日
    浏览(41)
  • 论文浅尝 | ChatKBQA:基于微调大语言模型的知识图谱问答框架

    第一作者:罗浩然,北京邮电大学博士研究生,研究方向为知识图谱与大语言模型协同推理 OpenKG地址:http://openkg.cn/tool/bupt-chatkbqa GitHub地址:https://github.com/LHRLAB/ChatKBQA 论文链接:https://arxiv.org/abs/2310.08975 动机 随着ChatGPT 的问世,属于大模型的时代就此开始。无可否认,大型

    2024年02月05日
    浏览(53)
  • 论文浅尝 | 记忆力强还是健忘?深入探究语言模型的知识记忆机制

    笔记整理:方润楠,浙江大学硕士,研究方向为自然语言处理 链接:https://arxiv.org/abs/2305.09144 摘要 近年来,大规模预训练语言模型展示出惊人的记忆能力,相比之下,未经预训练的普通神经网络存在着灾难性遗忘的问题。为了研究这种记忆与遗忘出现的原因,并探求语言模

    2024年01月18日
    浏览(35)
  • 论文浅尝 | SpCQL: 一个自然语言转换Cypher的语义解析数据集

    笔记整理:郭爱博,国防科技大学博士 论文发表会议:The 31th ACM International Conference on Information and Knowledge Management,CIKM 2022 动机 随着社交、电子商务、金融等行业的快速发展,现实世界编织出一张庞大而复杂的网络。然而,图(或网络)数据难以管理和挖掘,特别是对于经

    2024年02月12日
    浏览(124)
  • 深度学习进阶篇[9]:对抗生成网络GANs综述、代表变体模型、训练策略、GAN在计算机视觉应用和常见数据集介绍,以及前沿问题解决

    【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等 专栏详细介绍:【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、

    2024年02月08日
    浏览(91)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包