信息论期末复习

2020-12-22 08:08

第二章 信源熵

一、自信息量

1. 定义:一个随机事件发生某一结果后所带来的信息量称为自信息量,简称自信息。定 义为其发生概率对数的负值。若随机事件发生ai的概率为p(ai),那么它的自信 息量为:I(ai) log2p(ai) (bit)

2. 性质:在事件发生前,I(ai)表示该事件发生的不确定性。 在事件发生后,I(ai)表示事件发生所提供的信息量。 二、信源熵

1. 定义: 已知单符号离散无记忆信源的数学模型

我们定义信源各个离散消息的自信息量的数学期望为信源的平均信息量,一般称为信

n

1

] p(ai)log2p(ai) 源的平均信息量: H(X) E[I(ai)] E[log2

p(ai)i 1

, ai, , an X a1, a2,

P(X) p(a),p(a), ,p(a), ,p(a) 12in

2. 信源熵与平均自信息量之间的区别

两者在数值上是相等的,但含义不同。信源熵表征信源的平均不确定度,平均自信息量是消除不确定度所需要的信息的度量。信源一定,不管它是否输出离散消息,只要这些离散消息具有一定的概率特性,必有信源的熵值,该熵值在总体平均的意义上才有意义,因而是一个确定值, 。在离散信源的情况下,信源熵的值是有限的。而信息量只有当信源输出离散消息并被接收后,才有意义,这就是给予接收者的信息度量。

3. 最大离散熵定理:信源X中包含n个不同离散消息时,信源熵H(X)有: H(X) log2n

当且仅当X中各个消息出现的概率全相等时,上式取等号。

4. 扩展信源的信源熵:N次扩展信源的信源熵:H(X) NH(X)

N


信息论期末复习.doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:【配套K12】[学习]安徽省滁州市定远县西片区2017-2018学年高一数

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: