论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

这篇具有很好参考价值的文章主要介绍了论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

徐阿衡

人工智能与机器学习工程师

最近看了下 2021年关于 OOD 的几篇 paper,记录一下~

对话系统中的 domain 都是预先定义好的,而在实际应用场景中,会有很多现有系统回答不了的问题(out of the design scope),我们把系统支持的意图称为 in-domain (IND),系统不支持的意图称为 out-of-domain (OOD)OOD 是需要被拒识的。

处理 OOD 问题一般分为有监督和无监督两类方法。有监督方法相对更直接,收集好 OOD 数据,在 IND 和 OOD 上训练一个二分类器,或者直接学习一个 K+1 的分类器。然而 OOD 数据直接获取比较困难,所以有些研究是讨论怎么生成 pseudo outlier。另外,从直觉上看,IND 和 OOD 数据分布是不一致的,IND/OOD 数据极不平衡,在选择 OOD 数据时存在一定的 selection bias,很难选择到高质量有代表性的数据,所以学习的模型对没见过的 OOD 数据很难泛化。

而无监督方法往往在训练阶段只利用 IND 数据来学习 IND 的 decision boundaries(如 LMCL,SEG),在测试阶段使用额外的检测算法来检测 OOD。这类方法致力于更好的对 IND 数据建模,以及探索更好的检测方法。但由于训练和测试阶段的目标并不一致,容易对 OOD 数据产生 overconfident 的后验分数。下面是三类常见的检测方法:

  • Probability Threshold: 利用 IND 模型的输出概率分布来决定 OOD,如 Maximum Softmax Probability (MSP),或者对输出的分数进行若干操作转化如 ODIN, Entropy,也有一些是在 reconstruction loss 或者 likelihood ratios 上设定阈值
  • Outlier Distance: 异常检测的方法,看 outlier 到 in-scope 集合的距离是否足够远。通常是在 embedding function 或者距离函数上做文章,如 Local Outlier Factor (LOF)、马氏距离等
  • Bayesian Ensembles: 在 16-18 年的工作比较多,近两年没怎么看到,通过 IND 模型输出的方差来决定是否是 OOD,如通过 ensemble / dropout 等方式看模型输出的方差如果够大,就认为是 OOD。

总的来说,各类方法各有优缺点,并没有突破性的进展,依旧是道阻且长。

ACL 2021: Enhancing the generalization for Intent Classification and Out-of-Domain Detection in SLU

无监督方法。不需要额外收集数据,通过在最后一层线性层加上 DRM 模块就能实现。

模型

依据:

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题
论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

编码器对 query 进行编码得到 hidden state h,两个线性层得到(1)中的分母 domain_logits 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 和分子 classification logits 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题,相除得到新的 logits 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题,用 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 计算 IND 分类的损失论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题,用 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 计算另一个损失 L_domain,作用是使得 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 接近 1(训练集里只有 IND),sigmoid 之前先对论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 进行裁剪,避免论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 的值过大,影响训练。两个损失相加得到最终损失。 

参数可以从 2.2-4 之间调,sigmoid(2.2) => 0.9,sigmoid(4) => 0.982

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

预测

OOD 的预测有 confidence-based feature-based 两类方法

Confidence-based Methods

基于 softmax output 来输出 OOD 的预测分数

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

Feature-based Methods

这里提到了马氏距离,马氏距离修正了欧式距离中各个维度尺度不一致且相关的问题。马氏距离计算点与聚类(分布)之间的距离,在多维数据集异常检测,高维数据集分类应用中表现出色。

可以用下面两张图来理解欧式距离与马氏距离,如果 X, Y 两个维度不相关,欧氏距离可以很好的判别Point1和Point2距离聚类中心黑点的远近,而如果各维度不满足独立同分布的条件时,如右图,欧氏距离就无法很好的表征Point1和Point2谁是异常点了。因为两个点与中心的欧氏距离相等。但实际上只有蓝色点更接近该聚类。下图来自这篇博客:https://blog.csdn.net/wokaowokaowokao12345/article/details/115765116

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

简而言之,马氏距离将变量按主成分进行旋转,让维度间相互独立,然后进行标准化,让维度同分布。最后基本公式如下,x - μ 是样本到样本均值间的距离,Σ 是多维随机变量的协方差矩阵,如果协方差矩阵是单位向量,也就是各维度独立同分布,马氏距离就变成了欧氏距离。

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

对应到这篇 paper,

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

仅用最后一层 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题就有不错的效果了,具体的看 paper 吧。

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

作者额外提出了 L- Mahalanobis:

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

对 BERT 最后输出的每一层结果进行计算,�� 是第 l 层,�� 是最后一层。

不同 detection score 的效果:

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

ACL 2021: Out-of-Scope Intent Detection with Self-Supervision and Discriminative Training

这一篇通过构建一系列的 pseudo outliers,然后把 intent classification 和 OOD 两个任务抽象为一个 K+1 的分类任务来做

Outliers 分为两种:

  • hard outliers:和 inlier 很近,难以区分。可以通过不同各类别 inlier 的 feature 的 convex combination 来自监督的生成。如下,论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 和 论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题 是从不同类别采样的两个输入的表征,论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题从均匀分布 U(0,1) 中采样。在 ablation study 里显示这部分带来的收益更大。
论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题
  • easy outliers:和 inlier 较远,与 kown intent 很不相关,可以从 open_domain 数据集中抽取

训练和正常的预训练模型做分类任务一样。

要注意的是 outlier 的数量对最终效果有较大影响。实验里的数据比例 # of inliers : # of open-domain outliers: # of self-supervised outliers = 1: 1: 4

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

这篇的实验设置是用 k% 个 intents 作为 known intents 来训练,剩下的作为 unknown intents 作为测试集。

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

EMNLP 2021: GOLD: Improving Out-of-Scope Detection in Dialogues using Data Augmentation

弱监督方式,在少量有标签的 OOD 数据(seed data)以及一个辅助的外部数据集 (source data)上进行数据增强,产生 pseudo-OOD data。任务是 in-domain/out-of-domain 二分类。

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

两种增强的方法:

  1. 在 OOD seed data 和 source data 的 embedding 空间里,对每个 seed 数据,通过 cosine 距离,从 source data 中找到 d 条与 seed 相似的数据,文中讨论 d= 24 对各个 source data 都是最优解
  2. 对话增强方法:seed data 是多轮对话数据,通过把 dialogue 里任意一条 utterance 替换为 source data 的 matched utterance 来构建新的 dialogue

上面构建的增强数据有较大的噪声,一些数据与 IND 数据可能有 overlap,所以有个过滤机制来保证 candidates 是最有可能的 OOD。通过 baseline detector 的 ensemble 方法来进行投票选出最优的 OOD。

这篇的两个前提条件是很重要的,一是要有合适的 seed data,如果 seed data 数量减低一半效果会大打折扣(论文里限制 OOD 数量为 IND 样本的 1%),还有一个source data 的选取,需要和 target data 不同,但又不能完全不相关。构建的最理想的 pseudo-label 当然是在 IND 和 OOD 的 decision boundary 上了。

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

ACL 2021: Modeling Discriminative Representations for Out-of-Domain Detection with Supervised Contrastive Learning

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

idea很简单,有监督对比学习(SCL) + 交叉熵(CE)的方法,使用对抗攻击的方法实现正样本的增强。希望同一个意图下的样本互相接近,不同意图下的样本互相远离。有监督对比学习的表示学习方法可以通过最大化类间距离和最小化类内方差来提升特征的区分度。

属于无监督的OOD检测方法,训练阶段用IND数据,测试阶段用 MSP/LOF/GDA 来检测 OOD。

对比学习损失:

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

对抗攻击的样本增强,用 FGV 方式计算扰动

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

NACCL 2021: Adversarial Self-Supervised Learning for Out-of-Domain Detection

这篇和上面一篇都是美团发的文,模型上一篇更简单,实验指标也是上一篇更好看。

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题

用 IND 数据和 CL loss 训练一个分类器,对 unlabeled data 进行对比学习,用 back translate 做正样本数据增强,

Back-translation 方法得到正样本对 (��, ��),对抗攻击得到 (�����, �����),实验了四种对比学习的设置

  • Standard- to-Standard (S2S),正样本对是 (��, ��)
  • Adversarial-to-Adversarial (A2A),正样本对是 (�����, �����)
  • Standard- to-Adversarial (S2A),正样本对是 (��, �����) / (��, �����)
  • Dual Stream (DS),正样本对是 S2S 和 A2A 相结合

最后是 DS 效果最好,也就是上图的方法,对比损失如下:文章来源地址https://www.toymoban.com/news/detail-493249.html

论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题
论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题
本文使用  WPL/s 发布  @GitHub

到了这里,关于论文笔记 - 对话系统中的 OOD (Out of Domain出域)问题的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文笔记:MEASURING DISENTANGLEMENT: A REVIEW OF METRICS

    学习解缠和表示数据中的变化因素是人工智能中的一个重要问题。虽然已经取得了许多关于学习这些表示的进展,但如何量化解缠仍然不清楚。 虽然存在一些度量标准,但对它们的隐含假设、真正衡量的内容以及限制了解甚少。 因此,当比较不同的表示时,很难解释结果 本

    2024年02月15日
    浏览(45)
  • 【论文笔记】A theory of learning from different domains

    防盗 https://www.cnblogs.com/setdong/p/17756127.html domain adaptation 领域理论方向的重要论文. 这篇笔记主要是推导文章中的定理, 还有分析定理的直观解释. 笔记中的章节号与论文中的保持一致. domain adaptation 的设定介绍: 有两个域, source domain 与 target domain. source domain: 一组从 source dist. 采

    2024年02月05日
    浏览(44)
  • DARWIN Survival of the Fittest Fuzzing Mutators读论文笔记

    作者背景 达姆施塔特工业大学:成立于1877年,是德国著名理工科大学 ‡萨格勒布大学: 是克罗地亚最大的大学,也是该地区历史最悠久的大学 §拉德堡德大学:位于荷兰奈梅亨市,又称奈梅亨大学,欧洲顶尖的研究型学术院校 发表时间 [外链图片转存失败,源站可能有防盗链机

    2024年02月03日
    浏览(44)
  • 【论文笔记】BEIT:BERT PRE-TRAINING OF IMAGE TRANSFORMERS

    GitHub 视觉转换器的输入单元,即图像补丁,没有预先存在的词汇。 预测遮罩面片的原始像素往往会在预训练短程依赖性和高频细节上浪费建模能力 输入编码:通过tokenizer将输入的文本中的每个单词转换为固定维度的向量表示 输入Transformer 编码器:使用多层的 Transformer 编码

    2024年02月11日
    浏览(50)
  • [论文笔记] CLRerNet: Improving Confidence of Lane Detection with LaneIoU

    Honda, Hiroto, and Yusuke Uchida. “CLRerNet: Improving Confidence of Lane Detection with LaneIoU.” arXiv preprint arXiv:2305.08366 (2023). 2023.05 出的一篇车道线检测的文章, 效果在CULane, CurveLanes SOTA 这篇论文在CLRNet基础上, 使用提出的LaneIoU代替CLRNet论文中LineIoU, 在两个数据集上取得了SOTA效果 论文其他部

    2024年02月15日
    浏览(45)
  • BEiT: BERT Pre-Training of Image Transformers 论文笔记

    论文名称: BEiT: BERT Pre-Training of Image Transformers 论文地址:2106.08254] BEiT: BERT Pre-Training of Image Transformers (arxiv.org) 代码地址:unilm/beit at master · microsoft/unilm (github.com) 作者讲解:BiLiBiLi 作者PPT:文章资源 首先展示的是我基于这个算法搭建的网页 demo ,欢迎体验。https://wangqvq-be

    2024年02月11日
    浏览(40)
  • 【论文阅读笔记】Endoscopic navigation in the absence of CT imaging

      上一篇的导航导论,是需要先验,也就是需要事先拍摄堆叠的图片(比如CT图等),在体外构建相应的3D模型,再与内窥镜图像进行实时匹配。对于很多情况来说,是无法拥有如此充足的先验的。所以,本文探索的是没有额外CT图像的一个内窥镜导航算法,应用场景是鼻腔

    2024年02月11日
    浏览(52)
  • 有可能代替Transformer吗?Image as Set of Points 论文阅读笔记

    写在前面   新的一周又开始了,冲冲冲~   这一篇文章提出了新的范式,不知道未来会不会成为主流的能并行 ResNet、Transformer 的网络。本文源于 B 站大佬的一个视频分享,遂找来这篇文章精读下。 论文地址:Image as Set of Points 代码地址:https://github.com/ma-xu/Context-Cluster 收

    2023年04月08日
    浏览(62)
  • 论文阅读笔记A Systematic Review of the State of Cyber-Security in Water Systems

    该论文主要回顾了水系统的网络安全研究,研究重点是提高供水、废水收集和处理系统的安全性 一、 Introduction 过去的供水系统安全:通过隔离、限制对控制组件的访问来实现的。 基于IoT的供水系统:依靠连接多层网络物理系统来促进自主去中心化决策,并改善实时数据和预

    2024年02月04日
    浏览(65)
  • [论文笔记] In Search of an Understandable Consensus Algorithm (Extended Version)

    寻找可理解的共识算法 (扩展版) [Extended Paper] [Original Paper] ATC’14 (Original) Raft 是一个用于 管理复制日志的共识算法 . Raft 更 易于理解 , 且为构建实际的系统提供了更好的基础. Raft 分离了共识的关键要素, 如领导者选举、日志复制、安全性 ; 并通过更强的一致性来减少状态数量

    2024年02月02日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包