Learning from Dialogue after Deployment: Feed Yourself, Chatbot!

这篇具有很好参考价值的文章主要介绍了Learning from Dialogue after Deployment: Feed Yourself, Chatbot!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Abstract

对于一个 bot 来说,它一生中看到的最多的对话是出现在它被部署到生产环境之后,这就产生了大量未被利用的训练数据。本文提出一种 自馈对话机器人(self-feeding chatbot),它能够从它自己参与的对话中自动抽取新的训练样本。

在该 bot 参与对话的过程中,它还会评估用户的满意度。

  • 当对话进展良好时,用户的回复成为需要模拟的训练样本
  • 当 bot 认为自己犯了错误时,它会询问用户以获得反馈
    • 学习预测这种反馈可以进一步提高 bot 的对话技能

在 PERSONACHAT 闲聊数据集上(包含 131k 训练样本),我们发现无论传统监督的数量如何,使用自馈对话机器人从对话中学习都显著提高了性能。

1 Introduction

训练一个 bot 使之像人类那样对话需要大量的监督。最常见的方式是训练一个模型来模拟大量众包或爬取的对话语料中的人类回复 (Serban et al., 2015)。这些对话语料要么收集代价高昂,要么其设置和真实的部署环境存在很大差别。相比之下,bot 最理想的学习方式是部署后从自己参与的对话中学习,因为此时遇到的样本往往是丰富、特定于具体任务、动态的以及廉价的。这和人类学习说话的方式类似,不仅仅是观察其他人进行 “专家级” 的对话,而是根据交织于我们自己的对话中的反馈,积极调整和纠正我们的对话。对于一个对话机器人来说,通过这项技能,它能够在它的一整个机生中持续提升和文章来源地址https://www.toymoban.com/news/detail-488734.html

到了这里,关于Learning from Dialogue after Deployment: Feed Yourself, Chatbot!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Kaggle分类问题Titanic——Machine Learning from Disaster

    这是我在大三选修课的课程设计,内容参考了Kaggle上高赞的代码,有详细批注,整体比较基础,结构相对完整,便于初学者学习。这个是一个分类问题,我的另外一篇博客《Kaggle回归问题Mercedes——Benz Greener Manufacturing》介绍了回归问题。除此之外我的《电商评论文本挖掘》也

    2024年02月11日
    浏览(30)
  • Learning Transferable Visual Models From Natural Language Supervision

    目前开始了解多模态相关的知识,欢迎大家批评指正! 这篇论文来自2021年的International Conference on Machine Learning,整理该论文的主要内容,参考【论文阅读】CLIP:Learning Transferable Visual Models From Natural Language Supervision ------ 多模态,视觉,预训练模型_me_yundou的博客-CSDN博客Learn

    2024年02月12日
    浏览(32)
  • 【论文笔记】A theory of learning from different domains

    防盗 https://www.cnblogs.com/setdong/p/17756127.html domain adaptation 领域理论方向的重要论文. 这篇笔记主要是推导文章中的定理, 还有分析定理的直观解释. 笔记中的章节号与论文中的保持一致. domain adaptation 的设定介绍: 有两个域, source domain 与 target domain. source domain: 一组从 source dist. 采

    2024年02月05日
    浏览(34)
  • Decoupling Knowledge from Memorization: Retrieval-augmented Prompt Learning

    本文是LLM系列的文章,针对《Decoupling Knowledge from Memorization: Retrieval 提示学习方法在仍然遵循基于参数的学习范式的同时,通过诱导更好的小样本表现,在自然语言处理中掀起了波澜;学习中的遗忘和死记硬背问题可能会遇到不稳定的泛化问题。具体来说,在完全监督的训练

    2024年02月11日
    浏览(38)
  • Learning to Segment Rigid Motions from Two Frames 代码复现

    https://github.com/gengshan-y/rigidmask 1.拉取代码 2.创建conda环境,修改rigidmask.yml DCNv2和ngransac 1.下载数据集和模型 KITTI-SF: https://s3.eu-central-1.amazonaws.com/avg-kitti/data_scene_flow.zip Sintel rigidity map : http://files.is.tue.mpg.de/jwulff/mrflow/sintel_rigiditymaps.zip 2.测试一下

    2024年02月06日
    浏览(31)
  • 【论文精读】Learning Transferable Visual Models From Natural Language Supervision

    CLIP作为多模态对比学习里程碑式工作,在创新性,有效性和领域性三个方面都拉满了。它最伟大的地方在于,打破了固有的基于给定类别分类的壁垒,让即使是未见过的类也能给出很好的结果,这大大提升了模型的灵活性,也让其更适配多种下游任务。 Paper http://proceedings.

    2024年02月10日
    浏览(31)
  • 论文阅读《Learning Adaptive Dense Event Stereo from the Image Domain》

    论文地址:https://openaccess.thecvf.com/content/CVPR2023/html/Cho_Learning_Adaptive_Dense_Event_Stereo_From_the_Image_Domain_CVPR_2023_paper.html   事件相机在低光照条件下可以稳定工作,然而,基于事件相机的立体方法在域迁移时性能会严重下降。无监督领域自适应作为该问题的一种解决方法,传统的

    2024年02月04日
    浏览(26)
  • 《Communication-Efficient Learning of Deep Networks from Decentralized Data》

    这篇文章算是联邦学习的开山之作吧,提出了FedAvg的算法,文中对比了不同客户端本地训练次数,客户端训练数据集划分的影响。 现代移动设备可以获取大量适合学习模型的数据,然而,这些丰富的数据通常是隐私敏感的、数量很大的,这可能导致无法记录到数据中心并使用

    2024年02月16日
    浏览(33)
  • CLIP论文笔记——Learning Transferable Visual Models From Natural Language Supervision

    一个强大的无监督训练模型 通过NLP来的监督信号得到迁移学习 进行图片与文字的配对实现监督的信号,解决了需要打标签进行训练的限制,增强了模型的泛化能力 CLIP的结构包含两个模型 Text Encoder 和 Image Encoder ,Text Encoder用于提取文本特征,Image Encoder用来提取图像特征 C

    2024年02月02日
    浏览(27)
  • 论文笔记 | Learning from Noisy Labels with Decoupled Meta Label Purifier(DMLP)

    深度学习识别任务依赖于大量可靠标记的数据集,但通过爬虫等收集到的数据不可避免地会有噪声标签。这些标签不适合直接用来训练,因为复杂的模型容易记住噪声标签,导致泛化能力下降 1.经典的LNL方法 识别噪声样本,减小它们对参数更新的影响(舍弃或者降低权重或半

    2024年02月05日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包