理论教育 平均交互信息量-《信息论基础与工程应用》

平均交互信息量-《信息论基础与工程应用》

时间:2023-10-29 理论教育 版权反馈
【摘要】:I表示单个事件间的交互信息量,要求信道两端平均一对符号传递信息量的多少,就要计算平均交互信息量,如图3.8和图3.9所示。(一)试写出平均交互信息量I(X;Y)的一般表达式;图3.11正向信道传递概率图图3.12反向信道传递概率图解:(一)平均交互信息量I(X;Y)的一般表达式各联合概率随机变量Y的概率分布求随机变量Y的熵由p=pij求得条件熵求得平均交互信息量这说明平均交互信息量是信源概率分布ω和信道传递概率pij的函数。

平均交互信息量-《信息论基础与工程应用》

I(ai;bj)表示单个事件间的交互信息量,要求信道两端平均一对符号传递信息量的多少,就要计算平均交互信息量,如图3.8和图3.9所示。

图3.8 信息传输方向为X到Y

图3.9 信息传输方向为Y到X

首先给出两种特殊形式

1.

这表示信宿收到bj后,获得有关信源的信息量。

2.

这表示反向信道中信宿收到ai后获得有关信源Y的信息量。

由上述两个式子可知,X与Y间平均传递一个符号所传输的平均信息量I(X;Y)应该是I(ai;bj)在联合集XY中的统计均值,即

同样,I(X;Y)也有三种不同的表达形式

1.正向信道中收到Y前后关于X的不确定性的消除

其中,

表示在随机变量Y=bj(j=1,2,…,s)的前提下,对随机变量X仍然存在的平均不确定性。而条件熵

表示收到随机变量Y后,对随机变量X仍然存在的平均不确定性,通常称它为疑义度。

(3.21)式表明,从收到Y中获取关于X的平均交互信息量I(X;Y),等于收到Y前对X的平均不确定性H(X),与收到Y后对X仍然存在的平均不确定性H(X/Y)之差,即收到Y前、后,关于X的平均不确定性的消除。

2.反向信道中收到X前后关于Y的不确定性的消除

其中,

表示在随机变量X=ai(i=1,2,…,r)的前提下,随机变量Y仍然存在的平均不确定性。而条件熵

表示表示在反向信道中,收到随机变量X后,对随机变量Y仍然存在的平均不确定性。这个“反向疑义度”一般称为噪声熵。

式(3.24)表明,对于反向信道来说,从输出随机变量X中,获取关于Y的平均交互信息量I(Y;X),等于信宿收到X前,对Y的先验不确定性H(Y),与信宿收到X后,对Y仍然存在的后验平均不确定性H(Y/X)之差,即通信前、后,关于Y的平均不确定性的消除。

3.通信前后,随机变量X和Y同时出现的平均不确定性的消除

其中,

表示通信后,信道两端同时出现X和Y的后验平均不确定性,通常称它为共熵。(www.daowen.com)

式(3.27)表明,信源X通过传递概率为P(Y/X)的信道输出随机变量Y,信道传递的平均交互信息量I(Y;X),等于通信前(随机变量X和Y统计独立)随机变量X和Y同时出现的平均不确定性{H(X)+H(Y)},与通信后(随机变量X和Y由信道传递概率P(Y/X)相联系)信道两端同时出现随机变量X和Y的平均不确定性H(XY)之差,即通信前、后,随机变量X和Y同时出现的平均不确定性的消除。

上述讨论的通信系统中各类熵的关系可用维拉图形象表示,如图3.10所示。

图3.10 通信系统中各类商关系图

【例3.6】设信源X的符号集X:{a1,a2},先验概率分布为p(a1)=ω(0<ω<1);p(a2)=1-ω。信道的输入符号集X:{a1,a2},输出符号集:Y:{a1,a2},传递概率P(Y/X):{p(aj/ai)=pij(i=1,2;j=1,2)}。现将信源X与如图3.11信道相接。

(一)试写出平均交互信息量I(X;Y)的一般表达式;

图3.11 正向信道传递概率图

图3.12 反向信道传递概率图

解:(一)平均交互信息量I(X;Y)的一般表达式

(1)各联合概率

(2)随机变量Y的概率分布

(3)求随机变量Y的熵

(4)由p(aj/ai)=pij(i=1,2;j=1,2)求得条件熵

(5)求得平均交互信息量

这说明平均交互信息量是信源概率分布ω和信道传递概率pij(i=1,2;j=1,2)的函数。

(二)计算反向信道的I(X;Y)

(1)各联合概率

(2)随机变量Y的概率分布

(3)求随机变量Y的熵

(4)由p(aj/ai)=pij(i=1,2;j=1,2),求得噪声熵

(5)求得平均交互信息量

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈