信息论+傅祖芸+答案(3)

2018-11-19 22:48

H ( X 1 X 2 L X N )?? H ( X 1 )?? H ( X 2 | X 1 )?? L?? H ( X N | X 1 X 2 L X N??1 )

H ( X N | X 1 X 2 L X N??1 ) )|(log)( L 12121 NNN xxxxPxxxP??????????????????????????????????????????????????LL X 1 X 2 X N

??????L?? P( x1 x2 L x N??1 )? P( x N | x1 x2 L x N??1 ) logP( x N | x1 x2 L x N??1 )

X 1 X 2 X N??1 X N

??????L?? P( x1 x2 L x N??1 )? P( x N | x1 x2 L x N??1 ) logP( x N )

X 1 X 2 X N??1 X N

? H ( X N )

H ( X 2 | X 1 )?? H ( X 2 )

H ( X 3 | X 1 X 2 )?? H ( X 3 ) ……

代入上述不等式,有

H ( X 1 X 2 L X N )?? H ( X 1 )?? H ( X 2 )?? L?? H ( X N )

P( x N | x1 x2 L x N??1 )?? P( x N ) P( x N??1 | x1 x 2 L x N??2 )?? P( x N??1 )

……

等号成立的条件是:

P( x 2 | x1 )?? P( x2 )

符号,均按 P(0)?? 0.4 , P(1)?? 0.6 的概率发出符号。

(1) 试问这个信源是否是平稳的?

(2) 试计算 )( 2XH 、 )|( 213 XXXH 及 )(lim XH N 。 N????(3) 试计算 H ( X 4 ) 并写出 X 4 信源中可能有的所有符号。 解:

即离散平稳信源输出的 N 长的随机序列之间彼此统计无依赖时,等式成立。

【2.17】设有一个信源,它产生 0、1 序列的消息。它在任意时间而且不论以前发生过什么

该信源任一时刻发出 0 和 1 的概率与时间无关,因此是平稳的,即该信源是离散平稳

H ( X 2 )?? 2H ( X )?? 1.942 比特/符号

H ( X 3 | X 1 X 2 )?? H ( X )?? 0.971 比特/符号

1H ( X 1 X 2 L X N )?? H ( X )?? 0.971比特/符号 lim H N ( X )?? lim N??? N????N H ( X 4 )?? 4H ( X )?? 3.884 比特/符号

X 4 信源中可能的符号是所有 4 位二进制数的排序,即从 0000~1111 共 16 种符号。

【2.18】设有一信源,它在开始时以 P(a)?? 0.6 , P(b)?? 0.3 , P(c)?? 0.1的概率发出 X 1 。如 1 1 果 X 1 为 a 时,则 X 2 为 a、b、c 的概率为 ;如果为 b 时,则 X 2 为 a、b、c 的概率为 ;

3 3 1 如果 X 1 为 c 时,则 X 2 为 a、b 的概率为 ,为 c 的概率为 0。而且后面发出 X i 的概率只与

2 X i?1 有关,又当 i?? 3 时, P( X i | X i??1 )?? P( X 2 | X 1 ) 。试用马尔克夫信源的图示法画出状态

转移图,并计算此信源的熵 H?? 。

信源。其信息熵为

H ( X )????? P( x) log P( x)?? 0.971 比特/符号

信源是平稳无记忆信源,输出的序列之间无依赖,所以

解:

信源为一阶马尔克夫信源,其状态转换图如下所示。

1 1 a : a : 3 3 1 b : 3

1 c : 3 1 b : 3 1 2

1 2 1 c : 3 根据上述状态转换图,设状态极限概率分别为 P(a) 、P(b) 和 P(c) ,根据切普曼—柯尔 莫哥洛夫方程有

? 1 1 1 ?Q(a)?? 3 Q(a)?? 3 Q(b)?? 2 Q(c) ??1 1 1 ?Q(b)?? Q(a)?? Q(b)?? Q(c) ? 3 3 2 ? 1 1 ?Q(c)?? Q(a)?? Q(b) ? 3 )?Q ( a )?? Q (b ) ?? Q(3 ?? 1

解得:

3 1 Q(a)?? Q(b)???, Q(c)???8 4

得此一阶马尔克夫的信息熵为:

H?????? Q( Ei )H ( X | Ei )?? 1.439 比特/符号

p

0 【2.19】一阶马尔克夫信源的状态图如右图所示, 信源 X 的符号集为{0,1,2} 并定义 p?? 1?? p 。

(1) 求 信 源 平 稳 后 的 概 率 分 布 P(0) 、 P(1) p 和

2 P(2) ; (2) 求此信源的熵 H?? ;

p

2 p 2 p 2 2 p 1 p p 2 2

(3) 近似认为此信源为无记忆时,符号的概率分布等于平稳分布。求近似信源的熵 H ( X )

并与 H?? 进行比较;

(4) 对一阶马尔克夫信源 p 取何值时, H?? 取最大值,又当 p?? 0 和 p?? 1时结果如何? 解:

根据切普曼—柯尔莫哥洛夫方程,可得

? P??? P (0) ?? pP (0) ?? 2p (1) 2p P(2)

???P(1)???p P(1) (0) ?? pP ??? p ??P(2)

2 2 ??P (2) ??? p P (0) ??? p P(1)?? pP(2) ?P(0)?? P(1)2 ?? P (2)2 ?? 1 ?

解得: P(0)?? P(1)?? P(2)???

1 3

该一阶马尔克夫信源的信息熵为:

H?????? Q( Ei ) H ( X | Ei )???? p log p?? p log p?? p 比特/符号

当信源为无记忆信源,符号的概率分布等于平稳分布,此时信源的概率空间为:

? 0 1 2???? X??????1 1 1???? P????????? 3 3 3????此时信源的信息熵为 H ( X )?? log 3?? 1.585 比特/符号

由上述计算结果可知: H ( X )?? H (?) 。

求一阶马尔克夫信源熵 H?? 的最大值, H?????? p log p?? p log p?? p ,有

p) dH???? log 2(1??dp p

2 可得,当 p???时, H?? 达到最大值,此时最大值为 log 3?? 1.585 比特/符号。

3

当 p?? 0 时, H???? 0 比特/符号; p?? 1时, H???? 1比特/符号

【2.20】黑白气象传真图的消息只有黑色和白色两种,即信源 X?? {黑,白},设黑色出现的

概率为 P(黑)?? 0.3 ,白色出现的概率为 P(白)?? 0.7 。

(2) 假设消息前后有关联,其依赖关系为 P(白 |白)?? 0.9 ,P(黑 |白)?? 0.1 ,P(白 | 黑)?? 0.2 ,

P(黑 | 黑)?? 0.8 ,求此一阶马尔克夫信源的熵 H 2 。

(3) 分别求上述两种信源的冗余度,并比较 H ( X ) 和 H 2 的大小,并说明其物理意义。

解:

如果出现黑白消息前后没有关联,信息熵为:

H ( X )????? pi log pi?? 0.881 比特/符号

当消息前后有关联时,首先画出其状态转移图,如下所示。(1) 假设图上黑白消息出现前后没有关联,求熵 H ( X ) ;

设黑白两个状态的极限概率为 Q(黑) 和 Q(白) ,根据切普曼—柯尔莫哥洛夫方程可得:

?Q(黑)?? 0.8Q(黑)?? 0.1Q(白) ??

?Q(白)?? 0.2Q(黑)?? 0.9Q(白) ?

??Q(黑)?? Q(白)?? 1

解得:

Q(黑)???此信源的信息熵为:

1 2 , Q(白)???3 3

H?????? Q( Ei ) H ( X | Ei )?? 0.553比特/符号

源熵小于信源消息之间无依赖时的信源熵,这表明信源熵正是反映信源的平均不确定的大

小。而信源剩余度正是反映信源消息依赖关系的强弱,剩余度越大,信源消息之间的依赖 关系就越大。

两信源的冗余度分别为:

H ( X ) ? 0.119 ? 1?? 1???log 2

H???? 0.447

? 1?? 1???log 2 结果表明:当信源的消息之间有依赖时,信源输出消息的不确定性减弱。就本题而言, 当有依赖时前面已是白色消息,后面绝大多数可能是出现白色消息;前面是黑色消息,后 面基本可猜测是黑色消息。这时信源的平均不确定性减弱,所以信源消息之间有依赖时信


信息论+傅祖芸+答案(3).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:仲量联行-万菱汇物业管理方案

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: