信息论与编码试卷及答案(多篇)(8)

2019-03-04 15:58

4.信源错误!未找到引用源。共有6个符号消息,其概率分布为错误!未找到引用源。={0.37,0.25,0.18,0.10,0.07,0.03}。

(1)对这6个符号进行二进制哈夫曼编码(给出编码过程),写出相应码字,并求出平均码长和编码效率。 (2)哈夫曼编码的结果是否唯一?如果不唯一,请给出原因。

5.二进制通信系统使用符号0和1,由于存在失真,传输时会产生误码,用符号表示下列事件。

x0:一个0发出;x1:一个1发出 y0:一个0收到;y1:一个1收到

给定下列概率:p(x0)=1/2,p(y0/x0)=3/4,p(y0/x1)=1/2。 (1)求信源的熵H(X);

(2)已知发出的符号,求收到符号后得到的信息量H(Y/X); (3)已知发出和收到的符号,求能得到的信息量H(X,Y)。 6.设DMC信道的传输情况如下图所示。 (1)试写出该信道的转移概率矩阵; (2)求该信道的信道容量。

7.设输入信号的概率分布为P=(1/2,1/2),失真矩阵为错误!未找到引用源。。试求错误!未找到引用源。,错误!未找到引用源。,错误!未找到引用源。,错误!未找到引用源。。

8.设有离散无记忆信源错误!未找到引用源。共有5个符号消息,其概率分布为错误!未找到引用源。={0.4,0.2,0.2,0.1,0.1}。

(1)对这5个符号进行二进制哈夫曼编码(给出编码过程),写出相应码字,并求出平均码长和编

码效率;

(2)哈夫曼编码的结果是否唯一?如果不唯一,请给出原因。

、平均自信息为

表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。

平均互信息

表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为

4、通信系统模型如下:

5、香农公式为

用频带换信噪比;(2)用信噪比换频带。

为保证足够大的信道容量,可采用(1)

6、只要,当N足够长时,一定存在一种无失真编码。

7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概

率无穷小。

8、在认识论层次上研究信息的时候,必须同时考虑到 形式、含义和效用 三个方面的因素。

9、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。

按照信息的性质,可以把信息分成 语法信息、语义信息和语用信息 。 按照信息的地位,可以把信息分成 客观信息和主观信息 。

人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。

事物的不确定度是用时间统计发生 概率的对数 来描述的。

10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。

12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。

14、不可能事件的自信息量是 ∞ 。

15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。

16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。

17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。

limH(X/XX?X)N12N?1??18、离散平稳有记忆信源的极限熵,H??N。

19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。

20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a) 。

1log22?eP221、平均功率为P的高斯分布的连续信源,其信源熵,Hc(X)=。

22、对于限峰值功率的N维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。

23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率P 之比 。

25、若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。

26、m元长度为ki,i=1,2,···n的异前置码存在的充要条件是:

?mi?1n?ki?1。

27、若把掷骰子的结果作为一离散信源,则其信源熵为 log26 。

28、同时掷两个正常的骰子,各面呈现的概率都为1/6,则“3和5同时出现”这件事的自信息量是 log218(1+2 log23)。

1?p(x)?emm29、若一维随即变量X的取值区间是[0,∞],其概率密度函数为,其中:

xx?0,m是X的数学期望,则X的信源熵HC(X)?log2me。

30、一副充分洗乱的扑克牌(52张),从中任意抽取1张,然后放回,若把这一过程看作离散无记忆信源,则其信源熵为 log252 。

31、根据输入输出信号的特点,可将信道分成离散信道、连续信道、半离散或半连续 信道。

32、信道的输出仅与信道当前输入有关,而与过去输入无关的信道称为 无记忆 信道。 33、具有一一对应关系的无噪信道的信道容量C= log2n 。 34、强对称信道的信道容量C= log2n-Hni 。 35、对称信道的信道容量C= log2m-Hmi 。

36、对于离散无记忆信道和信源的N次扩展,其信道容量CN= NC 。

37、对于N个对立并联信道,其信道容量 CN = k?1?NCk 。

38、多用户信道的信道容量用 多维空间的一个区域的界限 来表示。

39、多用户信道可以分成几种最基本的类型: 多址接入信道、广播信道 和相关信源信道。

40、广播信道是只有 一个输入端和多个输出端 的信道。

41、当信道的噪声对输入的干扰作用表现为噪声和输入的线性叠加时,此信道称为 加性连续信道 。

P1log2(1?X)PN。 42、高斯加性信道的信道容量C=243、信道编码定理是一个理想编码的存在性定理,即:信道无失真传递信息的条件是 信

息率小于信道容量 。

?1/21/20??0?01?代表的信道的信道容量C= 1 。 44、信道矩阵??1?1??045、信道矩阵?0?0??1??代表的信道的信道容量C= 1 。

46、高斯加性噪声信道中,信道带宽3kHz,信噪比为7,则该信道的最大信息传输速率Ct= 9 kHz 。

47、对于具有归并性能的无燥信道,达到信道容量的条件是 p(yj)=1/m) 。

?1?048、信道矩阵?0?1??代表的信道,若每分钟可以传递6*105个符号,则该信道的最大信

息传输速率Ct= 10kHz 。

49、信息率失真理论是量化、数模转换、频带压缩和 数据压缩 的理论基础。

50、求解率失真函数的问题,即:在给定失真度的情况下,求信息率的 极小值 。 51、信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就 越大 ,获得的信息量就越小。

52、信源的消息通过信道传输后的误差或失真越大道传输消息所需的信息率 也越小 。 53、单符号的失真度或失真函数d(xi,yj)表示信源发出一个符号xi,信宿再现yj所引起的 误差或失真 。

?0i?j?54、汉明失真函数 d(xi,yj)=?1i?j 。

55、平方误差失真函数d(xi,yj)=(yj- xi)2。

56、平均失真度定义为失真函数的数学期望,即d(xi,yj)在X和Y的 联合概率空间P(XY)中 的统计平均值。

57、如果信源和失真度一定,则平均失真度是 信道统计特性 的函数。

58、如果规定平均失真度D不能超过某一限定的值D,即:D?D。我们把D?D称为 保真度准则 。 59、离散无记忆N次扩展信源通过离散无记忆N次扩展信道的平均失真度是单符号信源通过单符号信道的平均失真度的 N 倍。 60、试验信道的集合用PD来表示,则PD=

??p(y/x):D?D;i?1,2,?,n,j?1,2,?,m 。

ji61、信息率失真函数,简称为率失真函数,即:试验信道中的平均互信息量的 最小值 。

62、平均失真度的下限取0的条件是失真矩阵的 每一行至少有一个零元素 。 63、平均失真度的上限Dmax取{Dj:j=1,2,···,m}中的 最小值 。 64、率失真函数对允许的平均失真度是 单调递减和连续的 。 65、对于离散无记忆信源的率失真函数的最大值是 log2n 。

66、当失真度大于平均失真度的上限时Dmax时,率失真函数R(D)= 0 。

Inf(y/x)?PD67、连续信源X的率失真函数R(D)= pI(X;Y) 。

268、当D??时,高斯信源在均方差失真度下的信息率失真函数为 R(D)?

1?2log22D 。

69、保真度准则下的信源编码定理的条件是 信源的信息率R大于率失真函数R(D) 。


信息论与编码试卷及答案(多篇)(8).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:配料室配料岗位三规一制(检)

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: