极限熵和冗余度

这篇具有很好参考价值的文章主要介绍了极限熵和冗余度。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本专栏包含信息论与编码的核心知识,按知识点组织,可作为教学或学习的参考。markdown版本已归档至【Github仓库:information-theory】,需要的朋友们自取。或者公众号【AIShareLab】回复 信息论 也可获取。

信息冗余度(多余度、剩余度)

在信息论中,信息冗余传输消息所用数据位的数目与消息中所包含的实际信息的数据位的数目的差值

数据压缩是一种用来消除不需要的冗余的方法,校验和是在经过有限信道容量的噪声信道中通信,为了进行错误校正而增加冗余的方法。

信息冗余度一译"信息剩余度"。是指一定数量的信号单元可能有的最大信息量与其包含的实际信息量之差。通常用R表示。为信号的实际信息量,Imax为同样数量的信号单元可能有的最大信息量。会使传信绩效降低,但能提高通讯的抗干扰能力。

  • 表示信源在实际发出消息时所包含的多余信息。

  • 冗余度:

    • 信源符号间的相关性。

      • 相关程度越大,信源的实际熵越小
    • 信源符号分布的不均匀性。

      • 等概率分布时信源熵最大。
    • log ⁡ 2 N = H 0 ( X ) ≥ H 1 ( X ) ≥ H 2 ( X ) ≥ ⋯ ≥ H ∞ ( X ) \log _{2} N=H_{0}(X) \geq H_{1}(X) \geq H_{2}(X) \geq \cdots \geq H_{\infty}(X) log2N=H0(X)H1(X)H2(X)H(X)

      N = H 0 ( X ) N=H_{0}(X) N=H0(X):等概率分布时信源熵

      N = H 1 ( X ) N=H_{1}(X) N=H1(X):相互独立

      N = H 1 ( X ) N=H_{1}(X) N=H1(X):两者有关系

对于有记忆信源, 极限熵

H ∞ ( X ) = lim ⁡ N → ∞ H ( X N / X 1 ⋯ X N − 1 ) = lim ⁡ N → ∞ 1 N H ( X 1 ⋯ X N ) H_{\infty}(X)=\lim _{N \rightarrow \infty} H(X_{N} / X_{1} \cdots X_{N-1})=\lim _{N \rightarrow \infty} \frac{1}{N} H(X_{1} \cdots X_{N}) H(X)=NlimH(XN/X1XN1)=NlimN1H(X1XN)
这就是说需要传送某一信源的信息, 理论上只需要传送 H ∞ ( X ) H_{\infty}(X) H(X) 即可。但这必须掌握信源全部概率统计特性, 这显然是不现实的。实际上, 只能算出 H m ( X ) H_{m}(X) Hm(X) 。那么与理论极限值相比, 就要多传送 H m ( X ) − H ∞ ( X ) H_{m}(X)-H_{\infty}(X) Hm(X)H(X)

为了定量地描述信源的有效性, 定义: 信息效率

η = H ∞ ( X ) H m ( X ) \eta=\frac{H_{\infty}(X)}{H_{m}(X)} η=Hm(X)H(X)
冗余度

γ = 1 − η = 1 − H ∞ ( X ) H m ( X ) \gamma=1-\eta=1-\frac{H_{\infty}(X)}{H_{m}(X)} γ=1η=1Hm(X)H(X)

冗余度

由于信源存在冗余度,即存在一些不必要传送的信息,因此信源也就存在进一步压缩其信息率的可能性。

信源冗余度越大,其进一步压缩的潜力越大。这是信源编码与数据压缩的前提与理论基础

例:英文字母:

英文字母出现的概率如下表(含空格)

英文字母出现概率

极限熵和冗余度

若各个字母独立等概, 则信息熵

H 0 = log ⁡ 2 27 = 4.76 b i t / s y m H_{0}=\log _{2} 27=4.76 \mathrm{bit} / \mathrm{sym} H0=log227=4.76bit/sym

按照表计算独立不等概的信息熵

H 1 = − ∑ i = 1 27 p i log ⁡ p i = 4.03 b i t / s y m H_{1}=-\sum_{i=1}^{27} p_{i} \log p_{i}=4.03 \mathrm{bit} / \mathrm{sym} H1=i=127pilogpi=4.03bit/sym

若只考虑一维相关性, 有 H 2 = 3.32 b i t / s y m H_{2}=3.32 \mathrm{bit} / \mathrm{sym} H2=3.32bit/sym , 进一步考虑二维相关性, 有 H 3 = 3.01 b i t / s y m H_{3}=3.01 bit/sym H3=3.01bit/sym

香农推断: H ∞ ≅ 1.4 b i t / s y m H_{\infty} \cong 1.4 \mathrm{bit} / \mathrm{sym} H1.4bit/sym

  • 从而: η = 29 % , γ = 71 % \eta=29 \%, \quad \gamma=71 \% η=29%,γ=71%

极限熵和冗余度

参考文献:文章来源地址https://www.toymoban.com/news/detail-481309.html

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第3版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第7版) [M]. 北京:国防工业出版社, 2012.

到了这里,关于极限熵和冗余度的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 信息论复习五:信息率失真函数(一)

    今天先提前复习信息率失真函数,因为最近讲到这里了,而且这里的计算较为简单。 首先了解一下失真函数和失真矩阵,然后就是单符号离散信源的平均失真计算,计算非常简单,就是联合概率矩阵和失真矩阵进行点乘(相同位置对应相乘)之后,再把矩阵的数求和,通俗一点

    2024年02月15日
    浏览(40)
  • 信息论安全与概率论

    目录 一. Markov不等式 二. 选择引理 三. Chebyshev不等式 四. Chernov上限 4.1 变量大于 4.2 变量小于 信息论安全中会用到很多概率论相关的上界,本文章将梳理几个论文中常用的定理,重点关注如何理解这些定理以及怎么用。 假定X为非负且为实数的随机变量,令为该变量的数学期

    2024年02月03日
    浏览(52)
  • 【AI底层逻辑】——篇章3(上):数据、信息与知识&香农信息论&信息熵

    目录 引入 一、数据、信息、知识 二、“用信息丈量世界” 1、香农信息三定律

    2024年02月11日
    浏览(41)
  • 信息论基础第三章阅读笔记

    在信息论中,与大数定律类似的是渐进均分性(AEP),它是弱大数定律的直接结果。 大数定理针对独立同分布(i.i.d.)随机变量 ……………… 因此,当n很大时,一个观察序列出现的概率 p ( X 1 , X 2 , . . . , X n ) p(X_1,X_2,...,X_n) p ( X 1 ​ , X 2 ​ , ... , X n ​ ) 近似等于 2 − n H 2^{-nH}

    2024年02月07日
    浏览(56)
  • 信息论复习—线性分组码的基本性质

    目录 线性分组码: 非线性码示例: 线性码示例: 许用码字间的距离--码距: 码距与码的检错纠错能力之间的关系: 线性分组码的基本性质: 线性分组码的最小码距与最小码重的关系: 线性分组码的生成矩阵与监督矩阵: 生成矩阵: 系统码的生成矩阵: 监督矩阵: 方程

    2024年02月07日
    浏览(39)
  • 联合基于信息论的安全和隐蔽通信的框架

    Joint Information-Theoretic Secrecy and Covert Communication in the Presence of an Untrusted User and Warden 2021 IOTJ 主要创新点总结: 1 到Bob和到Carol的信号的功率分配或者时隙分配。 2 由于Willie到其他的窃听的信道Willie仅仅知道其分布(假设所有信道都仅仅知道其分布),由于其不确定性带来概率的

    2024年02月04日
    浏览(42)
  • 信息论的精髓与人工智能:探索共同之处

    信息论是一门研究信息的理论学科,它研究信息的性质、量度、传输和处理等问题。信息论的核心概念是熵、互信息、条件熵等,它们在人工智能中发挥着重要作用。随着人工智能技术的发展,信息论在人工智能中的应用越来越广泛。本文将从信息论的精髓与人工智能的共同

    2024年02月21日
    浏览(45)
  • 信息论之从熵、惊奇到交叉熵、KL散度和互信息

    考虑将A地观测的一个随机变量x,编码后传输到B地。 这个随机变量有8种可能的状态,每个状态都是等可能的。为了把x的值传给接收者,需要传输一个3-bits的消息。注意,这个变量的熵由下式给出: ⾮均匀分布⽐均匀分布的熵要⼩。 如果概率分布非均匀,同样使用等长编码,

    2023年04月15日
    浏览(78)
  • 信息熵和决策树

    在预测分析领域,决策树是可应用于回归和分类任务的算法之一 决策树背后的想法是,根据数据集中的特征对当时响应变量的贡献方式,递归地构建一个颠倒的树状结构。 在每次迭代中,将以使得所得模型最小化成本函数的方式选择特征。 该结构从顶部的根节点开始,然后

    2024年02月16日
    浏览(17)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包