Posts with tag 信息与编码

CH4-信道

2024-11-29
julyfunnotes信息与编码大四上

平均互信息image.png|500其中 $I(x_i; y_j) = log p(x_i|y_j) / p(x_i)$ 即 X 的信息量减去知道 Y 后 X 的信息量(收到 Y) 对于 X 的信息量的贡献.对称性: $I(X; Y) = I(Y; X)$非负性单次通信可能使 Y 的不确定性增大,但是统计平均一定是不确定性减小凸性I(X; Y) 是 关于 $p(bold(x^->))$ 向量的一个上凸函数,也就是说 x 知道 $I(x_i, y_j)$ 的情况下,$x$ 比较均匀的分布比较好.信道容量若知道 x, y 的转移矩阵,定义 $R_t = I(X, Y) / t$ 为信道传输速率,取最优的 $X$ 分布使得其最大,就得到信道容量 C.离散单符号信道及其容量容量容量就是给定转移矩阵的情况下求 $X$ 和 $Y$ 的分布使得 $I$ 最大.无干扰离散信道输入输出一一对应: $C = log n$多输入对应一输出: 有损失,无噪声, C = max(H(Y))否则无损失,有噪声.对称性作业里转移矩阵的每一行表示 $x_i$ 到各个 $y_j$ 分布. 乘法为 $y = x P$. 每一行和为 1.每一行包含的元素相同,则显然噪声熵 $H(Y|X)$ 与 $x$ 分布无关. (准对称)最大化 $H(Y)$ 即可最大化 $I(X; Y)$所以需要 $Y$ 等概率分布.如果是对称信道,可推出 $X$ 等概率分布.[转移矩阵]这里一般用第 i 行表示输入信号,第 j 列表示输出信号.每一行和为 1[强对称]均匀分配错误信号.image.png|500[对称]每一行和每一列包含相同元素.性质:若输入等概率,则输出等概率.容量: 取输入对称,结果为 $H(Y) - H(Y | X)$ = $log s - H(a, b, c...)$[准对称]输入对称而输出不对称,每一行元素相同容量: 需要划分为若干对称矩阵.image.png|600ref: https://blog.csdn.net/qq_36488756/article/details/110517599扩展信道ex: 知道单个符号的转移矩阵 $2 times 2$,可求两个符号的联合转移矩阵 $4 times 4$附录教程: https://www.wbyblog.cn/archives/57.html[抄的结论] $$I(x_i y_j) = I(y_j) + I(x_i | y_j)$$[记忆] $$p(y|x) = p(x y) / p(x) => H(Y|X) = H(X Y) - H(X)$

CH2-信息的统计

2024-11-27
julyfunnotes信息与编码大四上

[自信息]概率小 50%,信息量 + 1$I(x_i) = -log(x_i)$[条件自信息]...**[互信息]用于衡量两个随机变量之间相互依赖性的量(成功传输的信息)$I(X; Y) = H(X) - H(X | Y) = H(Y) - H(Y | X)$[信源熵]就是自信息的期望, 对于无记忆信源. 是一个先验概率:$$H(X) = E[I(X)] = sum_(i = 1)^n p(x_i) I(x_i) = - sum_(i = 1)^n p(x_i) log p(x_i)$$单位 bit/symbol (信息每符号)。符号几率越平均,熵越大还有后验概率版本,即接收到了以后反算熵.[条件熵]即条件自信息的期望. $H(Y|X)$ 为已知随机变量 $X$ 的条件下随机变量 $Y$ 的不确定性.[噪声熵]: X 给到 Y 以后 Y 还有多少噪声.image.png|500[损失熵]:X 的多少信息没传过去.例子:$x_1 tilde x_8$ 必导致 $y_1$, $x_9 tilde x_16$ 必导致 $y_2$,则噪声熵为 $0$,损失熵 $3$,联合熵image.png|500[联合熵 Joint Entropy]:image.png|500不确定性图:image.png|300image.png|600image.png|500例:image.png|300image.png|600例:image.png[熵函数的属性]非负性对称性: 交换概率,熵不变确定性:如果存在一个概率 = 1,则信息量为 0.扩展性: 将其中一个 $p_i$ 分出一个极小量到另一个符号,熵不变.强可加性:$H(X Y) = H(X) + H(Y | X)$可加性: s-独立时有 $H(X Y) = H(X) + H(Y)$增性:将其中一个符号 $x$ 拆分成若干个符号(概率和为 $x$),熵增加.上凸性:对概率向量 $P$,$H$ 是上凸的极限性质:对于离散信源, 当各个符号概率一样的时候,$H$ 最大.例题[问] $[1 / 2, 1 / 4, 1 / 8, 1/ 8]$ 信源的熵$$1 dot 1 / 2 + 2 dot 1 / 4 + 3 dot 1 / 8 dot 2 = 4 / 7 "bits/symbol"$$可以用变长码(哈夫曼编码)来表示这些符号,可以做到平均编码长度为 $1.75

CH3-离散和连续源的信息熵

2024-11-27
julyfunnotes信息与编码大四上

[Chain rules for Entropy]计算有记忆源的信息熵公式.$$H(X^N) = sum_(i = 1)^N H(X_i | X_(1..i - 1))$$[带记忆多符号离散平稳源的极限熵]定义为: image.png|500image.png平均符号熵和条件熵都会趋于稳定值(极限熵).[?]连续熵[微分熵]这是去掉无穷大项以后的相对熵.$$h(X) = - integral_S f(x) log f(x) dif x$$计算机内部先离散.[正态分布熵]逆天,我推的. 注意积 $e^(-t^2)t^2$ 时,令 $u = e^(-t^2)t, v = t$:$$ integral e^(-t^2) t^2 dif t &= u^circle v - u^(circle circle) v^prime &= [-1 / 2 e^(-t^2) dot t]_(-oo)^(+oo) - integral -1 / 2 e^(-t^2) dif t &= 0 + 1 / 2 sqrt(pi) $$ image.png最大熵定理同样方差情况下,正态分布熵最大.$H_0$ : 符号等概率分布情况下具有的熵. $= log_2 "符号数量"$利用率 $eta = H_"real"(X) / (H_0(X))$, 冗余度 $gamma = 1 - eta$信源编码:冗余度越小越好信道编码:需要增加一些冗余度以提升抗干扰性.杂项条件熵一定小于无条件

No more posts to load.