how to

CH3-离散和连续源的信息熵

Nov 27, 2024
notesjulyfun大四上信息与编码
2 Minutes
259 Words
  • [Chain rules for Entropy]
    • 计算有记忆源的信息熵公式.
    • 𝐻(𝑋𝑁)=𝑁𝑖=1𝐻(𝑋𝑖|𝑋1..𝑖1)
  • [带记忆多符号离散平稳源的极限熵]
    • 定义为: default
    • default
      • 平均符号熵和条件熵都会趋于稳定值(极限熵).
        • [?]

连续熵

  • [微分熵]
    • 这是去掉无穷大项以后的相对熵.
    • (𝑋)=𝑆𝑓(𝑥)log𝑓(𝑥)d𝑥
    • 计算机内部先离散.
  • [正态分布熵]
    • 逆天,我推的. 注意积 𝑒𝑡2𝑡2 时,令 𝑢=𝑒𝑡2𝑡,𝑣=𝑡:
𝑒𝑡2𝑡2d𝑡=𝑢𝑣𝑢𝑣=[12𝑒𝑡2𝑡]+12𝑒𝑡2d𝑡=0+12𝜋

default

  • 最大熵定理
    • 同样方差情况下,正态分布熵最大.
  • 𝐻0 : 符号等概率分布情况下具有的熵. =log2符号数量
  • 利用率 𝜂=𝐻real(𝑋)𝐻0(𝑋), 冗余度 𝛾=1𝜂
  • 信源编码:冗余度越小越好
    • 信道编码:需要增加一些冗余度以提升抗干扰性.

杂项

  • 条件熵一定小于无条件熵
Article title:CH3-离散和连续源的信息熵
Article author:Julyfun
Release time:Nov 27, 2024
Copyright 2025
Sitemap