近3三年多模态情感分析论文及其代码

这篇具有很好参考价值的文章主要介绍了近3三年多模态情感分析论文及其代码。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

排行榜:

在CMU-MOSE数据集排行榜

CMU-MOSEI Benchmark (Multimodal Sentiment Analysis) | Papers With Code

在MOSI数据集排行榜

MOSI Benchmark (Multimodal Sentiment Analysis) | Papers With Code

2022年

《M-SENA: An Integrated Platform for Multimodal Sentiment Analysis》

ACL;ACL ; star:317;2022

UniMSE: Towards Unified Multimodal Sentiment Analysis and Emotion Recognition

star:44; 2022;  MOSI数据排行第1

MMLatch: Bottom-up Top-down Fusion for Multimodal Sentiment Analysis

star:14; 2022; CMU-MOSEI排行第3

The MuSe 2022 Multimodal Sentiment Analysis Challenge: Humor, Emotional Reactions, and Stressstar:19;2022;

Sentiment Word Aware Multimodal Refinement for Multimodal Sentiment Analysis with ASR Errors

star:15;2022;

2021年

Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal Sentiment Analysis

star:444; 2021;

Improving Multimodal Fusion with Hierarchical Mutual Information Maximization for Multimodal Sentiment Analysis

EMNLP;star:444 ;2021;CMU-MOSEI的sota4;

Learning Modality-Specific Representations with Self-Supervised Multi-Task Learning for Multimodal Sentiment Analysis

ACL;   star:317;  2021

​​​​​​CLASSIC: Continual and Contrastive Learning of Aspect Sentiment Classification Tasks

EMNLP;   star:190; 对比学习;2021;

Learning Implicit Sentiment in Aspect-based Sentiment Analysis with Supervised Contrastive Pre-Training EMNLP;   star:70; 对比学习(好像都用在ABSA上);2021;

The MuSe 2021 Multimodal Sentiment Analysis Challenge: Sentiment, Emotion, Physiological-Emotion, and Stress

star:34; 2021;

2020年

​​​​​​CH-SIMS: A Chinese Multimodal Sentiment Analysis Dataset with Fine-grained Annotation of ModalityACL;star:317 2020

MISA: Modality-Invariant and -Specific Representations for Multimodal Sentiment Analysis

star:105; 2020文章来源地址https://www.toymoban.com/news/detail-528399.html

到了这里,关于近3三年多模态情感分析论文及其代码的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《论文阅读》DiaASQ:基于会话方面的情感四重分析的基准 ACL2023

    前言 你是否也对于理解论文存在困惑? 你是否也像我之前搜索论文解读,得到只是中文翻译的解读后感到失望? 小白如何从零读懂论文?和我一起来探索吧! 今天为大家带来的是《DiaASQ : A Benchmark of Conversational Aspect-based Sentiment Quadruple Analysis》

    2024年02月12日
    浏览(77)
  • 两篇2023 ICLR多模态论文分享(模态互补性对多模态鲁棒性影响 与 对多模表示学习有效的单模学习)

    本文讨论了模态互补性在多模态鲁棒性中的重要性,并基于信息论提出了一种数据集层面量化度量,用于量化不同模态之间有多少互补信息,以及这些信息对预测标签有多大贡献。该指标基于互信息神经估计器(MINE)来计算。提出了一个两阶段pipeline,分成数据生成阶段和度

    2024年02月08日
    浏览(41)
  • Python Flask+Echarts+sklearn+MySQL(评论情感分析、用户推荐、BI报表)项目分享

    随着互联网的快速发展和智能手机的普及,人们越来越倾向于在网上查找餐厅、购物中心、酒店和旅游景点等商户的点评和评分信息,以便做出更好的消费决策。Yelp作为美国著名的商户点评网站,提供了一个平台,让用户可以对商户进行评价和点评,并与其他用户分享自己的

    2024年02月12日
    浏览(48)
  • 表情识别-情感分析-人脸识别(代码+教程)

    面部情绪识别(FER)是指根据面部表情识别和分类人类情绪的过程。通过分析面部特征和模式,机器可以对一个人的情绪状态作出有根据的推断。这个面部识别的子领域高度跨学科,涉及计算机视觉、机器学习和心理学等领域的知识。 以下是一些关键领域,其中这项技术可能

    2024年02月09日
    浏览(39)
  • 2022 年首届“钉钉杯”大学生大数据挑战赛B题:航班数据分析与预测——国奖论文代码分享

            随着民航事业的迅速发展 , 飞机出行已成为未来发展的一种必然趋势,然而近年来, 航班延误现象频频发生,成为困扰机场和航空公司的难题。对航班延误做出合理评价是 分析航班延误总体水平、降低延误成本,以及制定相关处置预案的重要基础,有着重要 的现实

    2024年02月16日
    浏览(43)
  • 多模态 | 基于GNN的多模态情感识别技术COGMEN项目复现

    COGMEN: COntextualized GNN based Multimodal Emotion recognitioN COGMEN: 基于GNN的多模态情感识别技术 Paper:   https://arxiv.org/abs/2205.02455  源代码 GitHub - Exploration-Lab/COGMEN 论文翻译及总结可参考我另外一篇博文:多模态 |COGMEN: COntextualized GNN based Multimodal Emotion recognitioN论文详解_夏天|여름이다

    2023年04月09日
    浏览(61)
  • 机器视觉 多模态学习11篇经典论文代码以及解读

    此处整理了深度学习-机器视觉,最新的发展方向-多模态学习,中的11篇经典论文,整理了相关解读博客和对应的Github代码,看完此系列论文和博客,相信你能快速切入这个方向。每篇论文、博客或代码都有相关标签,一目了然,整理到这里了 webhub123 机器视觉 多模态学习

    2024年02月13日
    浏览(36)
  • 多模态情感识别-MISA: baseline解读

    多模态情感分析是一个活跃的研究领域,它利用多模态信号对用户生成的视频进行情感理解。解决这一任务的主要方法是开发复杂的融合技术。 (1)然而,信号的异质性造成了分布模式的差距,这带来了重大挑战。 https://blog.csdn.net/qq_40943760 (1)进行互注意力的特征表示学

    2024年02月05日
    浏览(34)
  • 分享AIGC前沿论文系列二 面向区域级图像理解的端到端多模态大模型GPT4RoI

    面向区域级图像理解的端到端多模态大模型 带来了超越图像级理解的全新对话和交互体验 进行丝滑的人机互动,不仅仅是文字级别的人机互动 本文提出对感兴趣区域进行Instruction Tuning,并提出GPT4RoI: 一种区域级视觉-语言模型,带来了超越图像级理解的全新对话和交互体验,

    2024年02月15日
    浏览(35)
  • 如何寻找论文及其相关代码?

    官方网址:https://paperswithcode.com 这是 Reddit 的一个用户 rstoj 做的一个网站,将 ArXiv 上的最新机器学习论文与 Github 上的代码(TensorFlow/PyTorch/MXNet/等)对应起来。 有关联代码,非常的nice!而且界面也很好,推荐指数:⭐⭐⭐⭐⭐ Browse state-of-the-art 官方网址:https://paperswithco

    2024年02月05日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包