0.总结
- 不知道是不是大模型的流行还是什么其他原因,导致现在网上都没有人来分享NER模型的相关论文了~
- 本文方法简单,代码应该也比较简单(但是没见作者放出来)。
- 推荐指数:★★☆☆☆
1. 动机
- 处理三种不同场景的NER
- 与 sequence-to-sequence NER 方法不同,本模型不需要强制实体按照顺序生成
2. 方法
其实就是一个BART模型,然后里面套了几层简单的处理而已。
3. 训练细节
3.1 Inverse Generation Training
Since the forward generation task is biased towards the left-to-right semantic structure.
这话意思就是说:这种自回归的生成方法倾向于从左到右的语义结构。
于是提出使用一个 inverse generation training的方法让模型同时也掌握从右到左的语义结构。
做法:使用一个额外的解码器,同时训练生成实体尾 到实体头。举例如下:Swollen, burning feet and ankles. 对于这条句子,得到的翻转目标序列则是:
3.2 联合学习
将上述得到的各个损失进行联合优化。文章来源:https://www.toymoban.com/news/detail-420591.html
4. 疑惑
主要的疑惑点有:文章来源地址https://www.toymoban.com/news/detail-420591.html
- Problem Formulation 中的对Ptr的定义。
到了这里,关于《论文阅读》SetGNER:General Named Entity Recognition as Entity Set Generation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!