《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读

这篇具有很好参考价值的文章主要介绍了《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


文章地址: https://link.springer.com/chapter/10.1007/978-3-030-60450-9_52

文章介绍

  在这篇文章中作者提出了一个继承性的序列标注模型( hierarchical sequence labeling model, HSLM)以端到端的方式识别文本语句中所含有的方面级情感三元组(ASTE)。该模型主要有三个部分组成:方面级序列标注模块、意见级序列标注模块、情感级序列标注模块。同时为了更好地学习到不同信息之间的交互,作者额外设计了三种信息融合机制主要包括方面特征融合机制,意见特征融合机制以及全局特征融合机制从而提取出更高级别的语义信息。

文章模型

编码层

  作者这里采用了glove获得原始单词的token表示,以及字符表示并将其拼接在一起,然后通过BiLSTM神经网络获得其上下文向量表示《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读

方面级序列标注模块

  作者首先通过{BA, IA, O}的标注方式获得语句中所可能含有的方面实体,具体通过softmax函数确认:
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读

意见级序列标注模块

  获得语句中所包含的方面实体以后,为了能提取出对应方面实体的意见词,作者首先对方面实体的上下文向量表示做了一个平均处理从而避免统一方面实体的不同token出现情感不一致的现象。
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读
  除此之外为了更好的利用预测结果,作者将平均池化表示m和方面标签嵌入拼接在一起,其中这个方面标签嵌入是随机初始化的这里我不太能理解,为啥随机初始化的会管用
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读
  然后作者为每个方面实体构建其相应的意见词子序列。首先是将之前的方面实体和encoder部分的向量表示拼接在一起,然后子序列的计算如下
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读
  然后再对于每一个子序列再通过softmax函数判断其实否为意见词
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读

情感级序列标注模块

  当得到意见词序列标注以后,也是与方面实体一样应用了平均池化。由于对于每一个方面实体均对应的是一个子序列,而子序列当中有的词不为意见词,在池化操作中不需要将他们考虑在内,因此这里作者用了一个one-hot向量z来进行区分,而下文中的B代表子序列中意见词的数量。
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读
  然后作者将得到方面实体表示和对应意见词表示拼接起来
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读
  为了更好的捕捉到二者在原句中的交互信息,作者这里引用了注意力机制
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读
  得到注意力机制的表示后,作者再将二者串联起来,最后通过一个softmax函数判断其相应的情感类别
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读

情感级序列标注模块

  模型训练损失则为三者相加,系数为超参数。
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读
《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读,论文阅读文章来源地址https://www.toymoban.com/news/detail-793783.html

到了这里,关于《Hierarchical Sequence Labeling Model for Aspect Sentiment Triplet Extraction》论文阅读的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【论文笔记】Triplet attention and dual-pool contrastive learning for clinic-driven multi-label medical...

    多标签分类Multi-label classification (MLC)可在单张图像上附加多个标签,在医学图像上取得了可喜的成果。但现有的多标签分类方法在实际应用中仍面临着严峻的临床现实挑战,例如: 错误分类带来的医疗风险, 不同疾病之间的样本不平衡问题 无法对未预先定义的疾病(未见疾

    2024年02月03日
    浏览(34)
  • HiFormer Hierarchical Multi-scale Representations Using Transformers for Medical Image Segmentation

    [WACV2023] HiFormer: Hierarchical Multi-scale Representations Using Transformers for Medical Image Segmentation 摘要 由于卷积神经网络的卷积运算的特性,它们在建模长程相关性和空间相关性时受到限制。虽然Transformer最初是为了解决这个问题而开发的,但它们 无法捕获低级别的特征 。相比之下,

    2024年01月21日
    浏览(36)
  • 论文阅读【自然语言处理-预训练模型2】BART:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation

    BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension BART: 用于自然语言生成、翻译和理解的去噪序列对序列预训练 【机构】:Facebook AI 【作者】:Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoye

    2024年02月03日
    浏览(37)
  • 【论文阅读】Informer Beyond Efficient Transformer for Long Sequence Time-Series Forecasting

    原始题目:Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting 中文翻译:Informer:超越有效变换器进行长序列时间序列预测 发表时间:2021-05-18 平台:Proceedings of the AAAI Conference on Artificial Intelligence 文章链接:https://ojs.aaai.org/index.php/AAAI/article/view/17325 开源代码:htt

    2024年03月12日
    浏览(36)
  • DiffusionDet: Diffusion Model for Object Detection

    论文题目:DiffusionDet: Diffusion Model for Object Detection 论文来源:arXiv preprint 2022 论文地址:https://arxiv.org/abs/2211.09788 论文代码:https://github.com/ShoufaChen/DiffusionDet DDPM DDIM 传统方法根据经验设计region proposals/anchor boxes/queries等 本文可从随机初始化的boxes进行回归和分类 方法概述:

    2024年02月12日
    浏览(27)
  • Shepherd: A Critic for Language Model Generation

    本文是LLM系列的相关文章,针对《Shepherd: A Critic for Language Model Generation》的翻译。 随着大型语言模型的改进,人们对利用这些模型的能力来完善其自身输出的技术越来越感兴趣。在这项工作中,我们介绍了Shepherd,这是一个专门针对批评模型响应和建议改进的语言模型,它超

    2024年02月12日
    浏览(33)
  • 轨迹预测Leapfrog Diffusion Model for Stochastic Trajectory Prediction

    CVPR2023 暂时没有上传的开源代码:https://github.com/mediabrain-sjtu/led 解决实时性问题,扩散模型用在扩散生成当中,虽然取得了很好的预测效果,但是由于扩散模型预测阶段耗时高,影响了未来轨迹预测的实时性。因此作者采用蛙跳的方式加速这个过程。 总体架构上面提出了哪些

    2024年02月02日
    浏览(35)
  • 【前端】for循环中 使用 v-model:value 导致引用重复

    如果您在循环中使用 v-model:value 导致引用重复的问题,通常是因为 Vue.js 会生成相同的 v-model 绑定,导致引用冲突。为了解决这个问题,您可以采取以下一些方法之一: 使用唯一的属性名: 在循环中,确保每个 v-model:value 绑定都使用不同的属性名,以防止引用重复。例如,您

    2024年02月09日
    浏览(28)
  • 【论文阅读】One For All: Toward Training One Graph Model for All Classification Tasks

    会议: 2024-ICLR-UNDER_REVIEW 评分:6,6,6,10 作者:Anonymous authors 文章链接:ONE FOR ALL: TOWARDS TRAINING ONE GRAPHMODEL FOR ALL CLASSIFICATION TASKS 代码链接:ONE FOR ALL: TOWARDS TRAINING ONE GRAPHMODEL FOR ALL CLASSIFICATION TASKS  设计一个能够解决多个任务的模型是人工智能长期发展的一个目标。最近,

    2024年01月18日
    浏览(33)
  • 论文阅读《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》

    就上一篇博客如何写论文、读(分享汇报)论文,在《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》进行实践。 《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》是一篇由Mingxing Tan和Quoc V. Le等人于2019年提出的论文,主要关注卷积神经网络(CNN)的模型缩

    2024年02月03日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包