文献阅读:Deep Learning based Semantic Communications: An Initial Investigation

这篇具有很好参考价值的文章主要介绍了文献阅读:Deep Learning based Semantic Communications: An Initial Investigation。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


论文简介

  • 作者
    Huiqiang Xie
    Zhijin Qin
    Geoffrey Ye Liy
    Biing-Hwang Juangy

  • 发表期刊or会议
    《GLOBECOM》

  • 发表时间
    2020.12


动机:为什么作者想要解决这个问题?

随着新应用的发展,需要开发新的通信系统以提高通信的准确性和效率,作者通过考虑bit背后的语义来开发智能通信系统

文中对语义通信系统的解释:
  所考虑的语义通信系统主要关注语义层面的信源编码和信道编码,其目的是提取数字比特背后的语义信息,而不是简单地压缩比特序列的长度,然后对语义信息进行编码,以确保接收者可以在失真后恢复原始语义信息
(即使提取出来bit背后的语义信息,还是要对语义信息编码,这不还是在传输bit吗,一定意义上确实不是简单的压缩了,是复杂的压缩,hhhh……)


贡献:作者在这篇论文中完成了什么工作(创新点)?

  • 基于 Transformer提出了一种新颖的 DeepSC 框架,可以有效地从文本中提取语义信息。在该框架中,设计了联合语义-信道编码来应对信道噪声和语义失真
  • DeepSC的收发器由语义编码器、信道编码器、信道解码器和语义解码器组成。为了理解语义并同时最大化系统容量,接收器使用两个损失函数进行优化:交叉熵和互信息


说白了,就是设计一个网络,再设计损失函数的套路;换个网络岂不是又是创新了


规划:他们如何完成工作?

  • 整体框架

    文献阅读:Deep Learning based Semantic Communications: An Initial Investigation,智简网络&语义通信 文献阅读,深度学习,人工智能,语义通信,6G
    所考虑的系统模型由两个层次组成:语义层和传输层。语义层解决语义信息处理的编码和解码以提取语义信息;传输层保证语义信息能够在传输介质上正确交换。
    (语义层,虚线框里;传输层,虚线框外;这个semantic channel是抽象出来的概念吧)

    重要知识点:
      对于编码器和解码器的端到端训练,信道必须允许反向传播。物理信道可以通过神经网络来建模。例如,简单的神经网络可用于对加性高斯白噪声 (AWGN) 信道、乘性高斯噪声信道和擦除信道进行建模。而对于衰落通道,则需要更复杂的神经网络。在本文中,为了简单起见,我们主要考虑 AWGN 信道。

  • 神经网络框架

    本文的框架有两个技术需要关注:

    • 使用 DNN 联合设计发射器和接收器
      通过在DL中采用自动编码器结构,将E2E系统中的发送器和接收器作为E2E重建任务进行联合优化
    • 语义-信道联合编码
      为了实现语义级别的成功恢复,我们联合设计了语义和信道编码,以保持 s ^ \hat s s^ s s s之间的含义不变,这是通过新的 DNN 框架实现的
      (语义-信道联合编码的意义就是为了保持 s ^ \hat s s^ s s s之间的含义不变)
      [个人理解,这两项技术是通过设计不同的loss函数实现的]

    看一下神经网络的整体框架:

    文献阅读:Deep Learning based Semantic Communications: An Initial Investigation,智简网络&语义通信 文献阅读,深度学习,人工智能,语义通信,6G
      发射机由语义编码器信道编码器组成,语义编码器用于从要传输的文本中提取语义特征,信道编码器用于生成符号以方便后续传输。语义编码器包括多个Transformer编码器层,信道编码器使用不同的全连接层;
      AWGN 信道被解释为模型中的一层;
      DeepSC 接收器将用于符号检测的信道解码器和用于文本估计的语义解码器组合在一起。信道解码器具有不同全连接层,语义解码器包括多个 Transformer 解码器层。
      损失函数定义为: L total  = L C E ( s , s ^ ; α , β , χ , δ ) + λ L M I ( X , Y ; T , α , β ) \mathcal{L}_{\text {total }}=\mathcal{L}_{\mathrm{CE}}(\mathbf{s}, \hat{\mathbf{s}} ; \boldsymbol{\alpha}, \boldsymbol{\beta}, \boldsymbol{\chi}, \boldsymbol{\delta})+\lambda \mathcal{L}_{\mathrm{MI}}(\mathbf{X}, \mathbf{Y} ; T, \boldsymbol{\alpha}, \boldsymbol{\beta}) Ltotal =LCE(s,s^;α,β,χ,δ)+λLMI(X,Y;T,α,β)
      其中第一项是考虑句子相似性的损失函数,其目的是通过训练整个系统来最小化 s ^ \hat s s^ s s s之间的语义差异(也就是语义-信道联合编码的loss,语义-信道联合编码面向的好像是整个通信过程)。第二个是互信息的损失函数,它最大化发射机训练期间实现的数据速率(也就是联合设计发射器和接收器的loss,联合设计发射器和接收器是X→channel→Y这一段)。
      关于 L C E \mathcal{L}_{\mathrm{CE}} LCE L total  \mathcal{L}_{\text {total }} Ltotal 具体介绍见论文II.A和II.B

    接下来我们要进行网络的训练:

      由于损失函数不同,DeepSC 的训练过程分为两个阶段。
      第一阶段是通过无监督学习训练互信息模型,损失函数为 L M I \mathcal{L}_{\mathrm{MI}} LMI即联合优化发射器和接收器
      第二阶段是以 L total  \mathcal{L}_{\text {total }} Ltotal 为损失函数来训练整个系统( L C E \mathcal{L}_{\mathrm{CE}} LCE包含在 L total  \mathcal{L}_{\text {total }} Ltotal 中,所以此过程也优化了语义-信道联合编码,猜测:之所以不把 L C E \mathcal{L}_{\mathrm{CE}} LCE单独拎出来作为loss训练,是因为 L total  \mathcal{L}_{\text {total }} Ltotal 作为损失函数效果更好)
      关于训练的具体流程,见论文III.A和III.B


理由:通过什么实验验证它们的工作结果

关于如何进行对比试验,具体见 论文 IV


自己的看法

语义通信较为早期的文章,并未对语义做具体的解释,通读文章后,给人的感觉语通信就是用神经网络咔咔组合,什么语义-信道联合编码,什么联合设计收发器,就是神经网络。文章来源地址https://www.toymoban.com/news/detail-679009.html

到了这里,关于文献阅读:Deep Learning based Semantic Communications: An Initial Investigation的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文阅读06-Task Offloading Optimization in Mobile Edge Computing based on Deep Reinforcement Learning

    标题:Task Offloading Optimization in Mobile Edge Computing based on Deep Reinforcement Learning 会议:MSWiM ’23 (CCF-C) 注:本文仅用户学习。 问题:边缘计算可以很好地缓解云计算网络拥塞和高通信开销等问题。然而,考虑到边缘计算资源是有限的,需要采用合理的优化策略提高首先资源的

    2024年02月21日
    浏览(25)
  • 【论文阅读】Resource Allocation for Text Semantic Communications

    这是一篇关于语义通信中资源分配的论文。全文共5页,篇幅较短。 语义通信在传输可靠性方面有着天然优势,而其中的资源分配更是保证语义传输可靠性和通信效率的关键所在,但目前还没有研究者探索该领域。为了填补这一空白,我们研究了语义领域的频谱效率,并重新

    2024年02月03日
    浏览(29)
  • An End-to-End Learning-Based Metadata Management Approach for Distributed File Systems——论文阅读

    TC 2022 Paper,元数据论文阅读汇总 “multiple metadata server (MDS)” 多个元数据服务器 “locality preserving hashing (LPH)” 局部保持哈希 “Multiple Subset Sum Problem (MSSP).” 多子集和问题 “polynomial-time approximation scheme (PTAS)” 多项式时间近似方法 目前的分布式文件系统被设计用于支持 PB 规

    2024年02月02日
    浏览(36)
  • 【论文阅读】SISR综述:From Beginner to Master: A Survey for Deep Learning-based Single-Image Super-Resolution

    论文地址:https://doi.org/10.48550/arXiv.2109.14335 单幅图像超分辨率(SISR)是图像处理中的一项重要任务,旨在提高成像系统的分辨率。近年来,在深度学习(DL)的帮助下,SISR取得了巨大的飞跃,并取得了可喜的成果。在本综述中,我们对基于dl的SISR方法进行了概述,并根据重建效率

    2024年02月08日
    浏览(36)
  • 语义通信经典文章DeepSC:Deep Learning Enabled Semantic Communication Systems

    作者 Huiqiang Xie Zhijin Qin Geoffrey Ye Li Biing-Hwang Juang 发表期刊or会议 《IEEE TRANSACTIONS ON SIGNAL PROCESSING》 发表时间 2021.4 这篇论文由《Deep Learning based Semantic Communications: An Initial Investigation》扩展而来 框架或结构 作用 DeepSC 最大化系统容量、最小化语义误差 设计两个Loss函数 理解语义

    2024年02月09日
    浏览(40)
  • Deep Learning for Natural Language Processing An Intro

    作者:禅与计算机程序设计艺术 深度学习的理论基础、技术框架及最新进展,以及自然语言处理领域的应用前景,对于广大从事自然语言处理研究和开发的同行来说都是一个重要的话题。近几年,随着深度学习技术的不断推陈出新的热潮,自然语言处理(NLP)也备受关注。

    2024年02月08日
    浏览(35)
  • 基于深度学习的语音识别(Deep Learning-based Speech Recognition)

    随着科技的快速发展,人工智能领域取得了巨大的进步。其中,深度学习算法以其强大的自学能力,逐渐应用于各个领域,并取得了显著的成果。在语音识别领域,基于深度学习的技术也已经成为了一种主流方法,极大地推动了语音识别技术的发展。本文将从深度学习算法的

    2024年02月04日
    浏览(28)
  • 【论文阅读】Deep Graph Contrastive Representation Learning

    作者:Yanqiao Zhu Yichen Xu 文章链接:Deep Graph Contrastive Representation Learning 代码链接:Deep Graph Contrastive Representation Learning 现实世界中,图的标签数量较少,尽管GNNs蓬勃发展,但是训练模型时标签的可用性问题也越来越受到关心。 传统的无监督图表征学习方法,例如DeepWalk和nod

    2024年01月18日
    浏览(42)
  • 论文阅读:SuMa++: Efficient LiDAR-based Semantic SLAM

    来源:IROS 2019 链接:https://ieeexplore.ieee.org/document/8967704 可靠、准确的定位和映射是大多数自动驾驶系统的关键组成部分。除了映射环境的几何信息外,语义在实现智能导航行为方面也起着重要作用。在大多数现实环境中,由于移动对象引起的动态变换,这个任务特别复杂,这

    2024年03月12日
    浏览(59)
  • 【论文阅读】The Deep Learning Compiler: A Comprehensive Survey

    论文来源:Li M , Liu Y , Liu X ,et al.The Deep Learning Compiler: A Comprehensive Survey[J]. 2020.DOI:10.1109/TPDS.2020.3030548. 这是一篇关于深度学习编译器的综述类文章。 什么是深度学习编译器 深度学习(Deep Learning)编译器将深度学习框架描述的模型在各种硬件平台上生成有效的代码实现,其完

    2024年02月15日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包