多模态技术综述

这篇具有很好参考价值的文章主要介绍了多模态技术综述。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

当我们谈到人类感知的多样性时,我们会意识到不同的感官信息对我们的认知和理解是至关重要的。例如,我们在观看一部电影时,不仅仅是通过视觉来理解其中的情节,还可以通过声音、配乐、文字等多种方式来获得更加丰富的信息。类似地,对于一张图片或一段文字,我们也可以从多个角度来理解和感知它们。在机器学习领域中,这种多种形式的感知被称为多模态学习。

多模态学习旨在将多种不同形式的数据结合在一起进行分析和处理,例如图像、声音、文本等。多模态深度学习是一种基于深度学习的多模态学习方法,旨在通过深度神经网络来处理和分析多模态数据集。与传统的深度学习方法不同,多模态深度学习需要解决许多挑战,例如如何将不同形式的数据结合在一起、如何选择合适的网络结构和损失函数等。

在本文中,我们将探讨多模态深度学习的定义、工作原理、挑战以及深度学习模型如何处理多模态输入。我们希望通过本文的介绍,读者能够更好地理解多模态深度学习的概念和应用,以及对未来的研究和发展产生启示,

文章末尾提供了多模态数据集(含链接)

什么是多模式深度学习

多模态机器学习是对计算机算法的研究,通过使用多模态数据集来学习和提高性能。

多模式深度学习是一个机器学习子领域,旨在训练人工智能模型来处理和找到不同类型的数据(模式)之间的关系,通常是图像、视频、音频和文本。通过组合不同的模式,深度学习模型可以更普遍地理解其环境,因为一些线索只存在于某些模式中。

想象一下情绪识别的任务。它不仅仅是看着人脸(视觉模态)。一个人的声音(音频模式)的音调和音高编码了大量关于他们情绪状态的信息,这些信息可能无法通过他们的面部表情看到,即使他们经常是同步的。

单模态或单模态模型,即只处理单一模态的模型,已经得到了很大程度的研究,并在计算机视觉和自然语言处理等前沿领域取得了非凡的成果。然而,单模态深度学习的能力有限,因此需要多模态模型。

下图是单模态模型在某些任务中失败的例子,比如识别讽刺或仇恨言论。
多模态技术,深度学习,AIGC,多模态,人工智能,深度学习,机器学习
将图像和文本结合起来,创造一个讽刺的表情包。单模态模型无法感知这种讽刺,因为每个模态只包含一半的信息。相比之下,处理文本和图像的多模态模型可以将两者联系起来,并发现更深层次的含义。

多模式模型通常依赖于深度神经网络,尽管其他机器学习模型,如隐马尔可夫模型HMM,已被纳入早期研究。

在多模式深度学习中,最典型的模式是视觉(图像、视频)、文本和听觉(语音、声音、音乐)。然而,其他不太典型的模态包括3D视觉数据、深度传感器数据和激光雷达数据(典型的自动驾驶汽车)。在临床实践中,成像模式包括计算机断层扫描(CT)和X射线图像,而非图像模式包括脑电图(EEG)数据。传感器数据,如热数据或来自眼睛跟踪设备的数据也可以包括在列表中。

上述单模态数据的任何组合都会产生多模态数据集。例如,以下的组合:

  • 视频+激光雷达+深度数据为自动驾驶汽车应用创建了一个出色的数据集。
  • EEG+眼动追踪设备数据,创建了一个将眼动与大脑活动联系起来的多模式数据集。

然而,最受欢迎的组合是三种最受欢迎模式的组合

  • Image + Text
  • Image + Audio
  • Image + Text + Audio
  • Text + Audio

从人工智能发展来看,深度学习符号学,模仿人体的神经元,希望实现有人一样的思考能力,但单模态的模型只能针对单一的任务,严格说跟人比所展示出的能力差太多,而多模态的模型才有点像模仿人类(因为人类对于外界接受的信息,就是来自于五个感官,就目前嗅觉难搞)。这种模型才算得上是人工智能

数码宝贝3,主角团要战胜恶魔,光靠一个数码兽是不行的,要结合主角人自己和数码兽一起融合才能打败数码恶魔,
只有启人和基尔兽联合进化成为红莲骑士兽,才能打败帝厉魔

多模态技术,深度学习,AIGC,多模态,人工智能,深度学习,机器学习多模态技术,深度学习,AIGC,多模态,人工智能,深度学习,机器学习

多模态深度学习分支

多模态技术,深度学习,AIGC,多模态,人工智能,深度学习,机器学习

我们可以把多模态深度学习可以分成三个分支:

  • 模态联合学习
  • 跨模态学习
  • 多模态自监督学习

这些分支都旨在通过整合多个数据源来提高深度学习的性能,从而更好地解决复杂的任务。

模态联合学习

在模态联合学习中,深度学习模型将多个模态的信息(如图像、文本、音频等)联合起来,以获得更好的性能。具体而言,这种方法可以通过融合多个模态的表示,来建立一个更为丰富和全面的模型。常见的模态联合学习模型包括Multimodal Compact Bilinear Pooling和Cross-Modal Retrieval。

跨模态学习

跨模态学习是指将模型在一个模态中学到的知识转移到另一个模态中,以提高模型在新模态中的性能。这种方法的基本思想是通过共享模型的某些部分,来将模型在一个模态中的知识应用于另一个模态中。典型的跨模态学习模型包括Deep Cross-Modal Projection Learning和Cross-Modal Transfer Learning。

多模态自监督学习

多模态自监督学习是指使用多个模态之间的关系来训练模型,而无需显式的标签信息。这种方法的核心思想是在多个模态之间建立自监督任务,从而获得一个共同的表示。典型的多模态自监督学习模型包括Joint Audio-Visual Self-Supervised Learning和SimCLR-MultiTask。这三种方法都可以提高模型的性能,并且在不同的任务中有着广泛的应用

从技术分支来看,可以总结为,多模态关注的方面,一个是模态之间如何联合一起工作,一个是模态之间如何转换,一个是模态数据集

多模式学习挑战

多模式深度学习旨在解决五个核心挑战,这五个挑战是活跃的研究领域。对以下任何挑战的解决方案或改进都将推动多模式人工智能的研究和实践。

多模态表示

多模态表示是以向量或张量的形式对来自多个模态的数据进行编码的任务。

捕捉原始数据的语义信息并良好的表示出来对于机器学习模型的成功非常重要。然而,从异构数据中提取特征以利用它们之间的协同作用是非常困难的。此外,充分利用不同模式的互补性,不关注多余的信息是至关重要的。

多模态表示分为两类。

联合表示
联合表示将不同模态的特征向量拼接起来形成一个联合的特征向量。

如果有 m m m 个模态,第 i i i 个模态的特征向量为 x ( i ) ∈ R d i \mathbf{x}^{(i)}\in\mathbb{R}^{d_i} x(i)Rdi

那么联合表示为: x ( j 1 , j 2 , … , j m ) = [ x ( 1 ) , x ( 2 ) , … , x ( m ) ] ∈ R d 1 + d 2 + ⋯ + d m ​ \mathbf{x}^{(j_1,j_2,…,j_m)}=[x^{(1)},x^{(2)},…,x^{(m)}] \in R^{d_1+d_2+⋯+d_m}​ x(j1,j2,,jm)=[x(1),x(2),,x(m)]Rd1+d2++dm

其中 j 1 , j 2 , … , j m j_1,j_2,\ldots,j_m j1,j2,,jm 表示要联合的模态。

协同表示
协同表示将不同模态的特征向量进行加权和,权重可以根据模态不同而异。设第 i i i 个模态的特征向量为 x ( i ) ∈ R d i \mathbf{x}^{(i)}\in\mathbb{R}^{d_i} x(i)Rdi,第 i i i 个模态的权重为 w i w_i wi,那么协同表示为:

X ( w ) = ∑ i = 1 m w i X ( i ) X^{(w)}=\sum_{i=1}^m w_iX^{(i)} X(w)=i=1mwiX(i)

其中 w = [ w 1 , w 2 , … , w m ] w = [w_1, w_2, \ldots, w_m] w=[w1,w2,,wm] ∑ i = 1 m w i = 1 \sum_{i=1}^{m}w_i=1 i=1mwi=1 表示权重之和为 1。

多模态融合

多模态融合是将来自不同传感器或不同数据源的多个模态(如图像、文本、音频等)的信息融合起来,以提高任务的准确性和效率。

以下是一些常见的多模态融合技术:

  1. 基于特征提取的融合:将不同模态的特征提取器(如卷积神经网络、循环神经网络等)提取的特征进行融合,例如加权求和、拼接等方式。
  2. 基于映射的融合:通过学习映射函数,将不同模态的数据映射到同一特征空间中进行融合。
  3. 基于图模型的融合:使用图模型(如条件随机场、图卷积网络等)来对多模态数据进行建模和融合。
  4. 基于注意力机制的融合:通过学习注意力权重来对不同模态的信息进行加权融合,以提高重要信息的影响。基于生成式对抗网络(GAN)的融合:通过训练生成式对抗网络,将不同模态的信息融合到一个生成器中,生成器可用于特定任务的输出。
  5. 基于传感器融合的融合:将多个传感器的输出信息进行融合,以提高准确性和鲁棒性。

以上技术可以单独使用或组合使用,以适应不同的任务和数据类型。

模态对齐

模态对齐是指识别不同模式之间的直接关系的任务。

当前对多模态学习的研究旨在创建模态不变表示。这意味着,当不同的模态引用相似的语义概念时,它们的表示必须在潜在空间中相似/接近。

例如,“她跳进了游泳池”这句话、游泳池的图像和飞溅声的音频信号应该在表示空间的歧管中紧密地放在一起。

模态翻译

翻译是将一种模态映射到另一种模态的行为。其主要思想是如何在保留语义的同时将一种模态(例如,文本模态)翻译为另一种(例如,视觉模态)。然而,翻译是开放的、主观的,不存在完美的答案,这增加了任务的复杂性。

目前对多模态学习的部分研究是构建生成模型,在不同模态之间进行翻译。最近的DALL-E和其他文本到图像模型是将文本模态转换为视觉模态的这种生成模型的很好的例子。

多模式学习是如何运行的

多模式神经网络通常是多个单模式神经网络的组合。

例如,视听模型可能由两个单模态网络组成,一个用于视觉数据,另一个用于音频数据。

这些单模态神经网络通常分别处理它们的输入。这个过程被称为编码。在进行单模态编码之后,必须将从每个模型中提取的信息融合在一起。已经提出了多种融合技术,从简单的串联到注意力机制。多模态数据融合过程是最重要的成功因素之一。融合发生后,最终的“决策”网络接受融合的编码信息,并在最终任务中进行训练。

简单地说,多模式体系结构通常由三部分组成:

  • 对单个模态进行编码的单模编码器。通常,每个输入模态一个。
  • 一个融合网络,在编码阶段将从每个输入模态提取的特征进行组合。
  • 一个接受融合数据并进行预测的分类器。

我们将上面的模块称为编码模块(DL Module)、融合模块和分类模块,如图所示:
多模态技术,深度学习,AIGC,多模态,人工智能,深度学习,机器学习
具体多模态做什么任务就需要下游这个Fusion Module 3模块用什么模型,如果是做生成类的模型,那就需要用到解码器这样的模块,比如transformer(因为它又可以做为解码器,也可以做为编码器)

多模态模型,将我们人类视角下的一些信息,转为计算机视角下的向量后,就好比我们掌握了这个信息,模型也掌握了这个信息,接下来的任务,就像是我们基于学到的知识,所能够做出的行为一样

现在让我们深入了解每个组件,这里以分类模型为例

Encoding

在编码过程中,我们试图创建有意义的表示。

通常,每个单独的模态都由不同的单模编码器处理。然而,通常情况下,输入是嵌入的形式,而不是原始形式。例如,word2vec嵌入可以用于文本,COVAREP嵌入可以用来音频。data2veq等多模式嵌入将视频、文本和音频数据转换为高维空间中的嵌入,是最新的实践之一,在许多任务中都优于其他实现SOTA性能的嵌入。

但是transformer结构可以完全适配文本、图像、视频、音频这样的多模态数据。

决定是否更适合使用联合表示或协调表示(在表示挑战中解释)是一个重要的决定。通常,当模态性质相似时,联合表示方法效果很好,这是最常用的方法。
在实践中,当设计多模式网络时,编码器更多是根据在每个领域工作良好的情况来选择的。

许多多模态研究论文以来,研究内容更多地强调了融合方法的设计,因此在视觉模态这块,更多选择的编码器是ResNets,使用RoBERTA作为文本的编码器。

融合

多模态融合是指将不同模态(例如图像、文本和音频)的信息整合起来,以提高模型的性能

最简单的方法是使用简单的操作,例如连接不同的单模态向量表示,或者求和不同的单模态向量表示。

在多模态融合中,交叉注意力机制是一种常用的技术,用于在不同模态之间交互信息,以获得更丰富的表示。交叉注意力机制可以通过在多个模态之间交叉计算注意力得分,来建立它们之间的相互关系。以两个模态(例如图像和文本)为例,假设它们的特征表示分别为 x x x y y y。交叉注意力机制可以通过以下公式来计算它们之间的关系:

e i , j = f ( x i , y j ) e_{i,j}=f(x_i,y_j) ei,j=f(xi,yj)
α i , j = e x p ( e i , j ) ∑ k = 1 n e x p ( e i , k ) \alpha_{i,j}=\frac{exp(e_{i,j})}{\sum_{k=1}^{n}exp(e_{i,k})} αi,j=k=1nexp(ei,k)exp(ei,j)

其中, e i , j e_{i,j} ei,j 是特征 x i x_i xi 和特征 y j y_j yj 之间的相似度得分, f f f 是一个计算相似度的函数,例如点积或双线性函数。 α i , j \alpha_{i,j} αi,j x i x_i xi y j y_j yj 的注意力得分,通过将 e i , j e_{i,j} ei,j 带入 softmax 函数计算得到。

计算得到的注意力得分 α i , j \alpha_{i,j} αi,j 可以被用于加权融合不同模态的特征,从而获得一个更丰富和全面的表示。具体而言,对于模态 x x x 和模态 y y y 的特征表示,可以通过以下公式来计算它们的交叉注意力融合表示:

x ~ i = ∑ j = 1 m α i , j y j \tilde x_i =\sum_{j=1}^{m}\alpha_{i,j}y_j x~i=j=1mαi,jyj
y ~ i = ∑ i = 1 m α i , j x i \tilde y_i =\sum_{i=1}^{m}\alpha_{i,j}x_i y~i=i=1mαi,jxi

其中, x ~ i \tilde{x}_i x~i y ~ j \tilde{y}_j y~j 分别是模态 x x x 和模态 y y y 在交叉注意力融合后的表示。这种方法可以在不同模态之间交互信息,从而提高模型的性能和泛化能力。

Classification

将交叉注意力融合后的向量输入到分类模型中,可以使用 softmax 函数来计算每个类别的概率得分。

假设模型输出的向量为 z z z,则可以使用以下公式来计算每个类别 k k k 的概率得分
p k p_k pk p k = exp ⁡ ( w k T z + b k ) ∑ j = 1 K exp ⁡ ( w j T z + b j ) p_k = \frac{\exp(w_k^T z + b_k)}{\sum_{j=1}^K \exp(w_j^T z + b_j)} pk=j=1Kexp(wjTz+bj)exp(wkTz+bk)

其中, w k w_k wk b k b_k bk 是分类模型的参数, K K K 是类别的数量。这个公式的意思是,首先计算类别 k k k 的得分,然后对所有类别的得分进行归一化,以得到每个类别的概率得分。在实际应用中,可以使用交叉熵损失函数来训练分类模型,最小化模型预测与实际标签之间的差距。具体而言,可以使用以下公式来计算交叉熵损失: L = − 1 N ∑ i = 1 N ∑ k = 1 K y i , k log ⁡ ( p i , k ) \mathcal{L} = -\frac{1}{N}\sum_{i=1}^N \sum_{k=1}^K y_{i,k} \log(p_{i,k}) L=N1i=1Nk=1Kyi,klog(pi,k)其中, N N N 是样本的数量, y i , k y_{i,k} yi,k 是样本 i i i 的标签向量, p i , k p_{i,k} pi,k 是模型对于样本 i i i 中类别 k k k 的预测概率得分。通过最小化交叉熵损失,可以训练一个高性能的分类模型,用于将多模态数据进行分类。

多模式深度学习数据集

为了推进这一领域,研究人员和组织创建并分发了多个多模式数据集。以下是最受欢迎的数据集的综合列表:

  • COCO-Captions Dataset:一个多模式数据集,包含330K张图像和简短的文本描述。该数据集由微软发布,旨在推进图像字幕的研究。
  • VQA:一个视觉问答多模式数据集,包含265K个图像(视觉),每个图像至少有三个问题(文本)。这些问题需要理解视觉、语言和常识才能回答。适用于视觉问答和图像字幕。
  • CMU-MOSEI:多模态意见情绪和情绪强度(MOSEI)是一个用于人类情绪识别和情绪分析的多模态数据集。它包含23500个句子,由1000名YouTube演讲者朗读。该数据集将视频、音频和文本模态组合在一起。一个完美的数据集,用于在三种最流行的数据模式上训练模型。
  • Social-IQ:一个完美的多模态数据集,用于训练视觉推理、多模态问答和社交互动理解的深度学习模型。包含1250个音频视频,严格注释(在动作层面),其中包含与每个场景中发生的动作相关的问题和答案(文本)。
  • kinetics 400/600/700:这个视听数据集是用于人类动作识别的Youtube视频集。它包含人们进行各种动作的视频(视觉模态)和声音(音频模态),如播放音乐、拥抱、运动等。该数据集适用于动作识别、人体姿势估计或场景理解。
  • RGB-D Object Dataset:一个结合了视觉和传感器模态的多模态数据集。一个传感器是RGB,对图片中的颜色进行编码,而另一个是深度传感器,对物体与相机的距离进行编码。该数据集包含300个家庭物品和22个场景的视频,相当于250K张图像。它已被用于3D对象检测或深度估计任务。

其他多模式数据集包括IEMOCAP、CMU-MOSI、MPI-SINTEL、SCENE-FLOW、HOW2、COIN和MOUD。文章来源地址https://www.toymoban.com/news/detail-741660.html

到了这里,关于多模态技术综述的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习周刊 第4期:动手实战人工智能、计算机科学热门论文、免费的基于ChatGPT API的安卓端语音助手、每日数学、检索增强 (RAG) 生成技术综述

    机器学习周刊第4期聚焦了AI实战教程、热门计算机科学论文、基于ChatGPT的安卓端语音助手、数学定理分享以及前沿的检索增强(RAG)生成技术综述。

    2024年02月02日
    浏览(67)
  • 论文阅读-基于深度学习的多模态情感分析研究综述

    非核心 原文链接:基于深度学习的多模态情感分析研究综述 - 中国知网 (cnki.net) 深度学习完成多模态情感分析综述。主要介绍 多模态情感分析 的概念、背景、意义。总结了 多模态融合技术和交互技术 ,讨论多模态情感分析 未来发展 。 目前经典的多模态情感分析研究已经

    2024年02月04日
    浏览(54)
  • 打造你的专属大模型,学完即可使用上岗!技术人的大模型课程(人工智能/机器学习/深度学习)

    技术人的大模型课 让一部分人在大模型时代,先拥抱AI,为编程专家开启AI新篇章 在2024年,大模型不再是可选技能,而是技术行业的必备。你是否曾在夜深人静时想象,从一名代码专家转型为AI行业的引领者? 如果你的答案是肯定的,那么这门课程正是为你量身定制, 针对

    2024年04月27日
    浏览(49)
  • 【人工智能】机器学习算法综述及常见算法详解

    目录 推荐 1、机器学习算法简介 1.1 机器学习算法包含的两个步骤 1.2 机器学习算法的分类 2、线性回归算法 2.1 线性回归的假设是什么? 2.2 如何确定线性回归模型的拟合优度? 2.3 如何处理线性回归中的异常值? 3、逻辑回归算法 3.1 什么是逻辑函数? 3.2 逻辑回归可以用于多类

    2024年04月22日
    浏览(48)
  • AIGC究竟是什么?深度解读人工智能生成内容

    随着科技的飞速发展,人工智能已经不再是遥不可及的未来技术,而是与我们的生活密切相关。从智能手机到自动驾驶汽车,从聊天机器人到医疗诊断系统,人工智能的应用越来越广泛。在这个过程中,AIGC(人工智能生成内容)作为一个新兴的概念,正逐步走进公众的视野。

    2024年02月09日
    浏览(81)
  • 人工智能前沿研究综述:对比学习、迁移学习、知识蒸馏的探索与未来展望

    导言         随着人工智能领域的不断发展,对比学习、迁移学习和知识蒸馏等研究方向成为热门话题。本文将全面探讨这些前沿研究的发展、面临的问题、解决过程,以及未来可能的研究趋势。 1. 对比学习的发展与挑战               1.1 发展历程         演

    2024年01月22日
    浏览(58)
  • 低代码平台助力AIGC:让人工智能技术更加普及和高效

    今年人工智能的风是吹了一波又一波,从ChatGPT到文心一言,短短四个多月的时间,GPT完成了从3.0、3.5到4.0的推新发布,一步步刷新了民众对于目前人工智能技术发展的认知底线,让人们直观地感受到了人工智能技术的蓬勃发展。 人工智能技术(Artificial Intelligence,简称AI)是

    2024年02月11日
    浏览(46)
  • AIGC技术研究与应用 ---- 下一代人工智能:新范式!新生产力!(5 - AIGC 未来展望)

    据预测,未来五年10%-30%的图片内容由AI参与生成,考虑到下一代互联网对内容需求的迅速提升,2030年AIGC市场规模将达到1100亿美元 任务分解替代概率模型 (Task Decomposition Replacement Probability Model) :AI替代某个工作主要取 决于以下要素——任务重复性、 标准化程度、 创新和判断

    2024年02月12日
    浏览(58)
  • AIGC技术:人工智能生成内容的创造性、高效率与未来

    AIGC技术是一种利用深度学习算法从大量数据中学习模式并生成高质量文本、音频、图像和视频的人工智能应用。它已经被广泛应用于内容创作、视频制作、游戏开发、媒体报道、语音助手等多个领域。AIGC技术具有提高效率、降低成本、创造性、提高品质和满足多样性需求等优势,并且随着技术的不断发展,未来将更加注重自我学习、多模态内容生成、个性化内容生成以及联邦学习等方向。

    2023年05月23日
    浏览(79)
  • AIGC 探究:人工智能生成内容的技术原理、广泛应用、创新应用、版权问题与未来挑战

    AIGC(Artificial Intelligence Generated Content)即人工智能生成内容, 其核心在于利用深度学习技术,尤其是基于神经网络的模型,来模拟人类创作过程 ,自主生成高质量的文本、图像、音频、视频等各类内容。神经网络是一种模仿人脑神经元结构与功能的计算模型,通过大量数据

    2024年04月27日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包