转载和使用规则:更多论文解读请关注: NLP_paper,如需转载文章需要为我的github项目star,并声明文章来源
1 模型创新
零样本信息提取(Information Extraction)旨在从未注释的文本中构建IE系统。由于很少涉及人类干预,这是一项具有挑战性的工作。零样本IE具有挑战性但值得一提,它减少了数据标记所需的时间和数据标注的麻烦
我们使用两阶段框架(ChatIE)将零样本IE任务转换为多轮问题解答问题。在三个IE任务上对我们的框架进行了广泛的评估:
- 实体关系三重提取(entity–relation triple extract,RE)
- 命名实体识别(name entity-relation,NER)
- 事件提取(event extraction,EE)
在两种语言的六个数据集上的经验结果表明,ChatIE取得了令人印象深刻的性能。
2 前期调研
2.1 难以解决的问题
包含多个相关元素的结构化数据很难通过一次性预测来提取,尤其是对于RE等一些复杂任务。以前的工作将这些复杂任务分解为不同的部分,并训练几个模块来解决每个部分。
- 例如,在RE任务中,pipline方法PURE首先识别两个实体,然后预测它们之间的关系。然而,在该模型中,需要通过标记数据进行监督。此外,Li等人将RE视为一个问答过程,首先提取主题,然后根据关系模板提取对象
3 Method
3.1 方法
Zero-shoot任务转换为具有两阶段框架的多回合问答问题。
- 第一阶段,我们的目标是找出句子中可能存在的相应元素类型。
- 第二阶段,我们对阶段I中的每个元素类型执行链式信息提取。每个阶段都通过多回合QA过程实现。
3.2 数据集
3.2.1 RE
NYT11-HRL:包含12种预定义的关系类型。
DuIE2.0:业界最大的基于模式的中文RE数据集,包含48种预定义的关系类型
3.2.2 NER
conll2003:包含4种实体类型
MSRA:是一个以中文命名的新闻领域实体识别数据集,包含3种实体类型
3.2.3 EE
DuEE1.0:百度发布的一个中文事件提取数据集,包含65种事件类型。
ACE053语料库提供了来自新闻专线和在线论坛等多个领域的文档和句子级别的事件注释。
3.3 评价指标
3.3.1 RE
我们报告了标准的微观F1测量,并采用了两个评估指标:
1)边界值(BE):如果主体和对象以及关系的整个实体跨度都是正确的,则提取的关系三元组(主体、关系、对象)被认为是正确的。
2) 严格评估(SE):除了订单评估中需要的内容外,主体和客体的类型也必须正确。我们在NYT11-HRL上使用be,因为没有实体类型的注释,而在DuIE2.0上使用SE
3.3.2 NER
只考虑完全匹配,并使用微观F1来评估NER任务。只有当预测实体和真实实体的边界和类型相同时,我们才会将其视为正确的预测
3.3.3 EE
我们在DuEE1.0数据集和ACE05数据集上采用了不同的评估指标。对于DuEE1.0数据集,根据单词水平匹配对F-measure( F 1 4 F1^4 F14)进行评分。对于ACE05数据集,预测的自变量结果与实体级别的手动标记自变量结果相匹配,并由micro F1进行评估
TP: Ture Positive 把正的判断为正的数目。
FN: False Negative 把正的错判为负的数目。
FP: False Positive 把负的错判为正的数目。
TN: True Negative 把负的判为负的数目。P(Precision)查准率,精确率:精确率就是算正样本中有多少是正确的。(简单来说是你预测为正的样本中有多少是正确的) 公式:P=TP/(TP+FP)
R(Recall)查全率,召回率:召回率是所有的正样本中有多少被预测正确了公式:R=TP/(TP+FN)
P , R是一对矛盾的度量,一般一个的值高了,另一个的值就会降低,文章来源:https://www.toymoban.com/news/detail-406445.html
F1就是综合P,R公式:F1=2PR/(R+P)文章来源地址https://www.toymoban.com/news/detail-406445.html
4 效果
- 在六个广泛使用的IE数据集上,ChatIE通常平均提高18.98%的性能。值得注意的是,与少镜头方法相比,这种提高变得更加显著。
- 监督学习模型计算密集,需要高质量的标记数据。此外,对于每项任务,都会从头开始训练一个单独的模型。相比之下,ChatIE在没有任何微调和训练来更新参数的情况下工作。它大大减少了计算和时间投入。
到了这里,关于【NLP文章阅读】Zero-Shot Information Extraction via Chatting with ChatGPT的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!