语义通信经典文章DeepSC:Deep Learning Enabled Semantic Communication Systems

这篇具有很好参考价值的文章主要介绍了语义通信经典文章DeepSC:Deep Learning Enabled Semantic Communication Systems。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


论文简介

  • 作者
    Huiqiang Xie
    Zhijin Qin
    Geoffrey Ye Li
    Biing-Hwang Juang

  • 发表期刊or会议
    《IEEE TRANSACTIONS ON SIGNAL PROCESSING》

  • 发表时间
    2021.4

  • 这篇论文由《Deep Learning based Semantic Communications: An Initial Investigation》扩展而来


关于文章内容的总结

框架或结构 作用
DeepSC 最大化系统容量、最小化语义误差
设计两个Loss函数 理解语义信息、最大化系统容量
语义-信道联合编码 保持 s s s s ^ \hat s s^之间的含义不变← L C E \mathcal{L}_{\mathrm{CE}} LCE用于衡量 s s s s ^ \hat s s^之间的差异
语义-信道联合编码 使网络学习特定目标的知识(联合设计时,信道编码可以注重保护与传输和目标相关的语义信息,而忽略其他不相关的信息)
L C E \mathcal{L}_{\mathrm{CE}} LCE 通过训练整个系统来最小化 s s s s ^ \hat s s^之间的差异
L MI  \mathcal{L}_{\text {MI }} LMI  最大化发射机训练期间实现的数据速率

引申出不理解的问题

语义通信经典文章DeepSC:Deep Learning Enabled Semantic Communication Systems,智简网络&语义通信 文献阅读,人工智能,6G,语义通信,智简网络,无线通信

  • 语义-信道联合编码在上图流程中属于哪部分?
    个人理解:整个流程都是

  • 联合设计收发器在上图流程中属于哪部分?
    未解决

  • 以下概念分不清楚

    语义通信经典文章DeepSC:Deep Learning Enabled Semantic Communication Systems,智简网络&语义通信 文献阅读,人工智能,6G,语义通信,智简网络,无线通信文章来源地址https://www.toymoban.com/news/detail-700946.html

    • E2E通信系统是一种形式
      自编码器是一种结构
      通信系统物理层收发机与自编码器在功能和结构上是相似的。自编码器的主要功能是实现数据重构,而通信系统的主要功能是在接收端恢复发射端的信号。
      若把收发信机看成一种自编码器结构,则发射机与接收机分别对应于自编码器的编码器与译码器。因此,通信系统收发信机的最优化设计就转变为自编码器端到端的优化任务。

到了这里,关于语义通信经典文章DeepSC:Deep Learning Enabled Semantic Communication Systems的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • deep learning 代码笔记

    len (X)总是返回第0轴的长度。 What are the shapes of summation outputs along axis 0, 1, and 2? f ( x ) = ||  x||   2 的梯度 自动微分法计算: 因此,梯度是x的单位向量。在x = 0处的梯度在数学上是未定义的,但是自动微分返回零。要小心,在这种情况下可能会出现差异。 默认情况下,最后一

    2024年02月21日
    浏览(43)
  • Deep Learning-学习笔记

    deep learning训练过程 如果对所有层同时训练,时间复杂度会太高;如果每次训练一层,偏差就会逐层传递。这会面临跟上面监督学习中相反的问题,会严重欠拟合(因为深度网络的神经元和参数太多了)。 2006年,hinton提出了在非监督数据上建立多层神经网络的一个有效方法,

    2024年02月12日
    浏览(34)
  • The Deep Learning AI for Environmental Monitoring——Deep

    作者:禅与计算机程序设计艺术 环境监测是整个经济社会发展的一个重要环节,环境数据是影响经济、金融、社会和政策走向的不可或缺的组成部分。目前,环境监测主要依靠地面站(例如气象台)或者卫星遥感影像获取的数据进行实时监测,其精确度受到数据源和采集技术

    2024年02月08日
    浏览(42)
  • Tips for Deep Learning

    目录 Recipe of Deep Learning  Good Results on Training Data? New activation function Adaptive learning rate Good Results on Testing Data? Early Stopping Regularization Dropout 我们要做的第一件事是,提高model在training set上的正确率,然后要做的事是,提高model在testing set上的正确率。 这一部分主要讲述如何在

    2024年02月05日
    浏览(42)
  • 《Dive into Deep Learning》

    《Dive into Deep Learning》:https://d2l.ai/ Interactive deep learning book with code, math, and discussions Implemented with PyTorch, NumPy/MXNet, JAX, and TensorFlow Adopted at 500 universities from 70 countries 《动手学深度学习》中文版:https://zh.d2l.ai/chapter_preface/index.html 课程安排: https://courses.d2l.ai/zh-v2/

    2024年02月11日
    浏览(46)
  • 《Learning to Reweight Examples for Robust Deep Learning》笔记

    [1] 用 meta-learning 学样本权重,可用于 class imbalance、noisy label 场景。之前对其 (7) 式中 ϵ i , t = 0 epsilon_{i,t}=0 ϵ i , t ​ = 0 ( 对应 Algorithm 1 第 5 句、代码 ex_wts_a = tf.zeros([bsize_a], dtype=tf.float32) )不理解:如果 ϵ epsilon ϵ 已知是 0,那 (4) 式的加权 loss 不是恒为零吗?(5) 式不是

    2024年01月23日
    浏览(89)
  • 可信深度学习Trustworthy Deep Learning相关论文

    Survey An Overview of Catastrophic AI Risks. [paper] Connecting the Dots in Trustworthy Artificial Intelligence: From AI Principles, Ethics, and Key Requirements to Responsible AI Systems and Regulation. [paper] A Survey of Trustworthy Federated Learning with Perspectives on Security, Robustness, and Privacy. [paper] Adversarial Machine Learning: A Systemati

    2024年02月13日
    浏览(37)
  • AIGC实战——深度学习 (Deep Learning, DL)

    深度学习 ( Deep Learning , DL ) 是贯穿所有生成模型 ( Generative Model ) 的共同特征,几乎所有复杂的生成模型都以深度神经网络为核心,深度神经网络能够学习数据结构中的复杂关系,而不需要预先提取数据特征。在本节中,我们将介绍深度学习基本概念,并利用 Keras 构建深度神

    2024年02月08日
    浏览(41)
  • 【论文阅读】Deep Graph Contrastive Representation Learning

    作者:Yanqiao Zhu Yichen Xu 文章链接:Deep Graph Contrastive Representation Learning 代码链接:Deep Graph Contrastive Representation Learning 现实世界中,图的标签数量较少,尽管GNNs蓬勃发展,但是训练模型时标签的可用性问题也越来越受到关心。 传统的无监督图表征学习方法,例如DeepWalk和nod

    2024年01月18日
    浏览(54)
  • labml.ai Deep Learning Paper Implementations

    labml.ai Deep Learning Paper Implementations github地址:https://github.com/labmlai/annotated_deep_learning_paper_implementations 可视化网站:https://nn.labml.ai/ 来自B站

    2024年02月12日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包