【NLP文章阅读】Zero-Shot Information Extraction via Chatting with ChatGPT

这篇具有很好参考价值的文章主要介绍了【NLP文章阅读】Zero-Shot Information Extraction via Chatting with ChatGPT。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


转载和使用规则:更多论文解读请关注: NLP_paper,如需转载文章需要为我的github项目star,并声明文章来源

1 模型创新

零样本信息提取(Information Extraction)旨在从未注释的文本中构建IE系统。由于很少涉及人类干预,这是一项具有挑战性的工作。零样本IE具有挑战性但值得一提,它减少了数据标记所需的时间和数据标注的麻烦

我们使用两阶段框架(ChatIE)将零样本IE任务转换为多轮问题解答问题。在三个IE任务上对我们的框架进行了广泛的评估:

  • 实体关系三重提取(entity–relation triple extract,RE)
  • 命名实体识别(name entity-relation,NER)
  • 事件提取(event extraction,EE)

在两种语言的六个数据集上的经验结果表明,ChatIE取得了令人印象深刻的性能。

2 前期调研

2.1 难以解决的问题

包含多个相关元素的结构化数据很难通过一次性预测来提取,尤其是对于RE等一些复杂任务。以前的工作将这些复杂任务分解为不同的部分,并训练几个模块来解决每个部分。

  • 例如,在RE任务中,pipline方法PURE首先识别两个实体,然后预测它们之间的关系。然而,在该模型中,需要通过标记数据进行监督。此外,Li等人将RE视为一个问答过程,首先提取主题,然后根据关系模板提取对象

3 Method

3.1 方法

Zero-shoot任务转换为具有两阶段框架的多回合问答问题。

  • 第一阶段,我们的目标是找出句子中可能存在的相应元素类型。
  • 第二阶段,我们对阶段I中的每个元素类型执行链式信息提取。每个阶段都通过多回合QA过程实现。
    【NLP文章阅读】Zero-Shot Information Extraction via Chatting with ChatGPT

3.2 数据集

3.2.1 RE

NYT11-HRL:包含12种预定义的关系类型。

DuIE2.0:业界最大的基于模式的中文RE数据集,包含48种预定义的关系类型

3.2.2 NER

conll2003:包含4种实体类型

MSRA:是一个以中文命名的新闻领域实体识别数据集,包含3种实体类型

3.2.3 EE

DuEE1.0:百度发布的一个中文事件提取数据集,包含65种事件类型。

ACE053语料库提供了来自新闻专线和在线论坛等多个领域的文档和句子级别的事件注释。

3.3 评价指标

3.3.1 RE

我们报告了标准的微观F1测量,并采用了两个评估指标:

1)边界值(BE):如果主体和对象以及关系的整个实体跨度都是正确的,则提取的关系三元组(主体、关系、对象)被认为是正确的。

2) 严格评估(SE):除了订单评估中需要的内容外,主体和客体的类型也必须正确。我们在NYT11-HRL上使用be,因为没有实体类型的注释,而在DuIE2.0上使用SE

3.3.2 NER

只考虑完全匹配,并使用微观F1来评估NER任务。只有当预测实体和真实实体的边界和类型相同时,我们才会将其视为正确的预测

3.3.3 EE

我们在DuEE1.0数据集和ACE05数据集上采用了不同的评估指标。对于DuEE1.0数据集,根据单词水平匹配对F-measure( F 1 4 F1^4 F14)进行评分。对于ACE05数据集,预测的自变量结果与实体级别的手动标记自变量结果相匹配,并由micro F1进行评估

TP: Ture Positive 把正的判断为正的数目。
FN: False Negative 把正的错判为负的数目。
FP: False Positive 把负的错判为正的数目。
TN: True Negative 把负的判为负的数目。

P(Precision)查准率,精确率:精确率就是算正样本中有多少是正确的。(简单来说是你预测为正的样本中有多少是正确的) 公式:P=TP/(TP+FP)

R(Recall)查全率,召回率:召回率是所有的正样本中有多少被预测正确了公式:R=TP/(TP+FN)

P , R是一对矛盾的度量,一般一个的值高了,另一个的值就会降低,

F1就是综合P,R公式:F1=2PR/(R+P)文章来源地址https://www.toymoban.com/news/detail-406445.html

4 效果

  • 在六个广泛使用的IE数据集上,ChatIE通常平均提高18.98%的性能。值得注意的是,与少镜头方法相比,这种提高变得更加显著。
  • 监督学习模型计算密集,需要高质量的标记数据。此外,对于每项任务,都会从头开始训练一个单独的模型。相比之下,ChatIE在没有任何微调和训练来更新参数的情况下工作。它大大减少了计算和时间投入。

到了这里,关于【NLP文章阅读】Zero-Shot Information Extraction via Chatting with ChatGPT的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AIGC零基础30天学习——CLIP与zero-shot

           在前面对CLIP的学习中,对 zero-shot prediction 环节一直有一些疑惑,zero-shot是什么,它该如何进行操作?     zero-shot是指零样本学习,和zero-shot相关联的概念包括many-shot、few-shot和one-shot,这些其实都是从训练集样本类型、测试集样本类型和对应的样本数量角度进行划分

    2024年02月09日
    浏览(39)
  • 105、Zero-1-to-3: Zero-shot One Image to 3D Object

    官网  使用合成数据集来学习相对摄像机视点的控制,这允许在指定的摄像机变换下生成相同对象的新图像,用于从单个图像进行三维重建的任务。  输入图像 x ∈ R H × W × 3 x in R^{H times W times 3} x ∈ R H × W × 3 ,所需视点的相对摄像机旋转和平移 R ∈ R 3 × 3 , T ∈ R

    2024年02月01日
    浏览(45)
  • 代码解读:Zero-shot 视频生成任务 Text2Video-Zero

    Diffusion Models视频生成-博客汇总 前言: 上一篇博客《【ICCV 2023 Oral】解读Text2Video-Zero:解锁 Zero-shot 视频生成任务》解读了这篇论文《Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video Generators》。这篇论文的创新点比较多,含金量很高,而且开源了代码。所以这篇博客结合

    2024年02月03日
    浏览(54)
  • huggingface pipeline零训练样本分类Zero-Shot Classification的实现

    1 : 默认的model 。 输出是 education 第一位的。 2 : 使用 morit/chinese_xlm_xnli : 3:使用 facebook/bart-large-mnli 4:

    2024年02月20日
    浏览(42)
  • 论文笔记--Prompt Consistency for Zero-Shot Task Generalization

    标题:Prompt Consistency for Zero-Shot Task Generalization 作者:Chunting Zhou, Junxian He, Xuezhe Ma, Taylor Berg-Kirkpatrick, Graham Neubig 日期:2022 期刊:Arxiv preprint   文章基于prompt的一致性学习给出了一种zero-shot task generalization(零样本泛化学习)的无监督方法。数值实验表明,文章提出的指令

    2024年02月10日
    浏览(41)
  • diffusion model (七) diffusion model是一个zero-shot 分类器

    Paper: Your Diffusion Model is Secretly a Zero-Shot Classifier Website: diffusion-classifier.github.io/ diffusion model(一)DDPM技术小结 (denoising diffusion probabilistic) diffusion model(二)—— DDIM技术小结 diffusion model(三)—— classifier guided diffusion model diffusion model(四)文生图diffusion model(classifier-free

    2024年02月12日
    浏览(39)
  • 【深度学习】【风格迁移】Zero-shot Image-to-Image Translation

    论文:https://arxiv.org/abs/2302.03027 代码:https://github.com/pix2pixzero/pix2pix-zero/tree/main 大规模文本到图像生成模型展示了它们合成多样且高质量图像的显著能力。然而,直接将这些模型应用于编辑真实图像仍然存在两个挑战。首先, 用户很难提供完美的文本提示,准确描述输入图像

    2024年02月13日
    浏览(47)
  • Prompt-“设计提示模板:用更少数据实现预训练模型的卓越表现,助力Few-Shot和Zero-Shot任务”

    通过设计提示(prompt)模板,实现使用更少量的数据在预训练模型(Pretrained Model)上得到更好的效果,多用于:Few-Shot,Zero-Shot 等任务。 prompt 是当前 NLP 中研究小样本学习方向上非常重要的一个方向。举例来讲,今天如果有这样两句评论: 什么苹果啊,都没有苹果味,怪怪

    2024年02月11日
    浏览(44)
  • Pre-trained Language Models Can be Fully Zero-Shot Learners

    本文是LLM系列文章,针对《Pre-trained Language Models Can be Fully Zero-Shot Learners》的翻译。 在没有标记或额外的未标记数据的情况下,我们如何将预先训练的模型扩展到许多语言理解任务?经过预训练的语言模型(PLM)对于广泛的NLP任务是有效的。然而,现有的方法要么需要对下游

    2024年02月07日
    浏览(44)
  • Text2Video-Zero:Text-to-Image扩散模型是Zero-Shot视频生成器

    Paper: https://arxiv.org/abs/2303.13439 Project: https://github.com/Picsart-AI-Research/Text2Video-Zero 原文链接:Text2Video-Zero:Text-to-Image扩散模型是Zero-Shot视频生成器(by 小样本视觉与智能前沿) 目录 最近的text-to-video生成方法依赖于计算量大的训练,并且需要大规模的视频数据集。 在本文中,我

    2024年02月11日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包