信息理论与编码基础复习题.docx
- 文档编号:6942347
- 上传时间:2023-01-12
- 格式:DOCX
- 页数:11
- 大小:106.50KB
信息理论与编码基础复习题.docx
《信息理论与编码基础复习题.docx》由会员分享,可在线阅读,更多相关《信息理论与编码基础复习题.docx(11页珍藏版)》请在冰豆网上搜索。
信息理论与编码基础复习题
信息理论与编码基础复习题
1.从通信的实质意义来讲,如果信宿收到的消息是已知的,则等于没有收到任何消息。
2.当一个信源中所有的符号消息为等概时,该信源的熵最大。
3.即时码一定是单义可译码。
4.不使用间隔即可区分码字,就必然要求码字具有惟一性。
5.噪声熵为0的信道称为确定信道。
6.从通信的实质意义来讲,人们对消息中所包含的未知成分更感兴趣,用概率论的术语来说,就是具有不确定性的成分。
7.当两个集合相互独立时,它们的共熵最大。
8.等长码都是即时码。
9.无记忆离散信源发出的各个消息符号是相互独立的,即信源发出的符号序列中的各个符号之间没有关联性,各个符号的出现概率统计独立。
10.定长非奇异码肯定是惟一可译码。
11.消息中未知的或不确定的成分,通常被称为消息中所包含的信息,而消息的传递需要由信号来载荷。
12.代码组集合中的所有代码组都包含相同个数的码元的编码称为等长码。
13.信源编码器的主要任务是完成输入消息集合与输出代码集合之间的映射。
14.译码时不需要考察后续码元,称之为即时码。
15.在即时码中,任何一个码字都不是其他码字的延长。
16.通信系统的任务是将信源的消息有效可靠地传送到信宿。
17.在通信系统中,人们习惯于将通信分为数字通信和模拟通信,其实质亦是根据信源消息是数字还是模拟来划分的。
18.信源能够用随机过程来建模,从描述信源消息的随机过程的平稳性角度,信源可以分为平稳信源和非平稳信源,也可以按随机过程的类别将其分为高斯信源和马尔可夫信源等。
19.文本信源和语音信源都是针对人类语言、文字、声乐等感知的,又通称为自然语信源。
20.若信源发出的消息是由K个离散符号构成的符号序列,且各个消息相互统计独立,则称这种信源为发出符号序列消息离散无记忆信源。
21.若单符号离散无记忆信源的信源空间为[XP],对其进行K重扩展得到符号序列X=X1X2…Xk,则称扩展后的信源为离散无记忆信源[XP]的K重扩展信源,记为XK。
22.研究信源最主要的目的是为信源编码服务。
23.当信息量单位用比特、时间单位为秒时,信息传输速率的量纲为比特/秒.
24.对信源的分类可以有多种方法,主要基于两方面的考虑。
一是信源消息取值的集合以及消息取值时刻的集合;二是信源消息的统计特性。
25.信道是传递消息的通道,广义上是指从信源到信宿间传递物理信号的媒质和设施。
26.从信息传输的角度来讲,研究信源主要是研究其输出的消息,简称信源消息。
27.信源消息中的信息是一个时变的不可预知的函数,因此,描述信源消息或对信源建模,随机过程是一个有效的工具。
28.根据人们对信源消息的感知情况将其分为数据信源、文本信源、语音信源、图像信源等。
29.若信源发出N个不同符号x1,x2,…,xi,…,xN,分别代表N种不同的消息,各个符号的概率分别为P1,P2,…,Pi,…,PN且相互统计独立,则称这种信源为单符号消息离散无记忆信源。
30.若信源发出的消息是由K个离散符号构成的符号序列,且各个消息相互统计相关,则称这种信源为发出符号序列消息离散有记忆信源。
31.信源编码的目标是用尽可能少的码元符号或尽可能低的数据速率来表示信源消息。
32.当信息量单位用比特、时间单位为码元(或符号或符号序列等)所占用的时间时,信息传输速率的量纲为比特/码元(或比特/符号、比特/符号序列等);
33.离散有记忆信源发出的各个消息符号是相互关联的,其记忆性或关联性通常有两种方式来描述。
一是用其联合概率来表示,这就是发出符号序列的离散有记忆信源;二是用其条件概率来表示,这就是发出符号序列的马尔可夫信源。
34.为了理解怎样的信源编码才是好的或者说是有效的,首先要能够对信源参数进行测量。
35.最佳编码是无失真信源编码的理想模式。
为了达到这个目的,通常需要遵循下面两个原则:
(1)对信源中出现概率大的消息(或符号),尽可能用短的代码组(码字)来表示,简称短码,反之用长码。
(2)不使用间隔即可区分码字。
36.代码组集合中各代码组所包含的码元个数不相同的编码称为变长码。
37.码字含义的惟一性又称为单义可译性,这样的码字称为单义可译码。
38.译码时要接收多于一个码字所包含的码元才能决定的信源编码,称为非即时码。
39.若在两个代码组之间使用间隔,就会减小信源的信息传输速率,进而降低编码效率。
40.非即时码也可能是单义可译码,这说明单义可译码不一定是即时码。
41.冗余度是衡量信源编码效率的一个物理量,冗余度越低,编码效率就越高。
42.信源编码器输出代码组的信息传输速率与信道容量之比,称为信源编码器的编码效率。
即η=R/C×100%,当R=C时,η=100%,这是信源编码的最理想特性,这样的信源编码能最充分地利用信道;当R
43.信息含量效率越高,信源的冗余度越低。
44.关于两个独立信道Q1、Q2串联,(X信道Q1的输
入;Y信道Q1的输出,也是信道Q2的输入;Z信道
Q2的输出。
)数据处理过程中,随着数据的不断处理,
从处理后的数据中所得的原始信息会愈来愈少;串联
信道的转移概率矩阵是各单元信道的转移概率矩阵之
积;XYZ组成一个马尔可夫链。
45.关于变长编码,无失真r进制变长码码长不得低于
信源r进制符号熵;变长编码时,随着信源序列长度
N的增大,编码效率提高;变长码的编码效率高于定
长码。
46.关于无失真信源编码,有效的信源编码可使输出码
元概率均匀化;霍夫曼编码过程中,可能造成码字不
惟一,但平均码长是相同的,因而编码效率是相同;
香农编码不能保证码字具有非续长性。
47.译码规则不能由边缘概率确定。
48.关于“重复N次”编码,“重复N次”是定长码;
采用择多译码策略;能减低平均差错率。
49.引入限失真编码不是因为提供信源的信息率。
50.给定xi条件下随机事件yj所包含的不确定度和条
件自信息量p(yj/xi),数量上相等,单位相同。
51.信息是集合之间的变异度属于从随机不确定性的
角度来定义信息。
52.信源编码不属于狭义信息论。
53.I(xi;yj)不满足非负性。
54.关于定长编码,引入失真不可能提高定长码的编码
效率是不正确的。
55.{0, 10, 11}可能是任何概率分布对应的
Huffman
56.算术编码的码长与该序列的累计概率有关
B.Huffman码无法对只含2个符号的信源进行压缩是
不正确的。
57.应用极大似然译码规则总可以确定译码的平均差
错率是不正确的。
58.对信源U的2元符号串进行编码,取码长为3N,则信息
率R2/3。
59.率失真函数体现平均互信息的上凸性是不正确的。
60.纠错编码中,减小带宽不能减小差错概率。
61.本体论是最高层次的信息
62.信息的产生不属于信息论的研究内容。
63.M阶马尔科夫信源的极限熵等于m+1阶条件熵是不正确的。
64.信道容量:
消息在不失真传输的条件下,信道所允许的最大信息传输速率称为信道容量。
65.最佳信源编码:
具有最短的代码组平均长度或编码效率接近于1的信源编码称为最佳信源编码,简称最佳编码。
66.信源:
消息的源,通常是提供消息的人、设备或事物67.单符号离散信源:
如果信源发出的消息是离散的、有限或无限可列的符号或数字,且一个符号代表一条完整的消息,则称这种信源为单符号离散信源。
68.信源冗余度:
设信源实际的熵为H,该种信源可能的最大熵为Hmax,则R=(Hmax-H)/Hmax×100%为信源的冗余度。
69.信源编码器编码效率:
信源编码器输出代码组的信息传输速率与信道容量之比,称为信源编码器的编码效率,即η=R/C×100%。
70.单义可译码:
对任何一个有限长度的信源消息序列,如果编码得到的码字序列不与其他任何信源消息序列所对应的码字序列相同,则称这样的码为单义可译码。
1.信宿:
消息传递的对象,通常是接收消息的人、设备或事物;
71.信源空间:
若信源的输出是随机事件X,其出现概率为P(X),则它们所构成的集合,称为信源的概率空间,简称为信源空间。
72.信息率:
对于信源编码器的输出序列,其单位时间内所包含的信息量称为信源编码器的信息传输速率,简称信息率。
73.通信中的信息、消息和信号三者之间的关系?
通信中的信息、消息和信号是紧密相联的:
通信系统传输的是信号,信号是消息的载体,消息中的未知成分是信息。
74.消息通常具有如下特征:
(1)消息可以产生、传递和获取;
(2)消息是有内容的。
75.信息具有的特征:
(1)未知性或不确定性;
(2)由不知到知等效为不确定性的集合的元素的减少;(3)可以度量;(4)可以产生、消失,可以被携带、存储、处理;(5)可以产生动作。
76.对于二进制信源的各种信源空间,当P(0)、P
(1)在什么情况下得到的I(X;Y)就是I(X;Y)max?
对于二进制信源的各种信源空间,当P(0)=P
(1)=1/2时,对应于二进制对称信道的平均互信息量为最大,得到的I(X;Y)就是I(X;Y)max。
77.数字通信中可靠性的含义,在通信系统中哪个环节解决这个问题:
直观地理解,可靠性表明消息传输中不出错的程度。
对于数字通信来说,信道编码的主要任务就是解决这个问题。
从传输的角度考虑,它可以用消息出错概率的大小来表征。
78.香农信息论主要是围绕通信的有效性和可靠性而展开的,它主要解决的问题:
(1)围绕信息的度量所展开的讨论;
(2)围绕无失真信源编码所展开的讨论;(3)基于信息传输时允许一定程度的失真或差错所展开的讨论;(4)围绕信道编码所展开的讨论;(5)围绕带限信道传输信息的能力所展开的讨论;(6)围绕通信网的发展带来的信息传输问题所展开的讨论;(7)围绕通信的保密所展开的讨论。
79.请简述自信息量I(xi)的定义并说明它的合理性:
事件xi的出现概率为P(xi),其所带来的信息量:
为事件xi的自信息量。
合理性:
若信源中事件xi的概率为p(xi),它的出现所带来的信息量用I(xi)来表示并称之为事件xi的自信息量,则从上述分析可知,I(xi)必须满足以下几个条件:
1)信源输出xi所包含的信息量仅依赖于它的概率,而与它的取值无关。
2)I(xi)是p(xi)的连续函数。
3)I(xi)是p(xi)的减函数,即:
如果P(xi)>P(xj),则I(xi)
极限情况,若P(xi)=0,则I(xi)→∞;若P(xi)=1,则I(xi)=0。
4)若两个单符号离散信源(符号集合X,Y)统计独立,则X中出现xi、Y中出现yj的联合信息量I(xi,yj)=I(xi)+I(yj)。
80.信源编码的主要目的?
(1)把信源发出的消息一一对应地变换成由信道基本符号构成的代码组,以使得消息能在编码信道上传输;
(2)尽量减小代码组的平均长度,以提高信道传输消息的有效性,即提高编码效率。
81.数字通信中有效性的含义,在通信系统中哪个环节解决这个问题:
直观地理解,有效性表明信源消息中“有用消息”占有的程度。
对于数字通信来说,信源编码的主要任务就是解决这个问题。
从传输的角度考虑,它可以用单位时间内传输有用消息的多少来表征。
82.信息理论要解决的基本问题:
(1)什么是信息,如何度量;
(2)能否最有效且无失真地表述待传输的信息?
即通信有效性的极限条件是什么;(3)在允许一定失真的条件下,待传输信息的表述能否比无失真要求时更有效?
如果有,这种“更有效”的极限条件是什么;(4)在给定的信道中,信息传输有没有极限;(5)从存在噪声或干扰的实际环境中提取通信系统传输的信息,极限条件是什么;(6)设计什么样的系统能够达到上述极限;(7)现实中接近上述极限的设备是否存在;83.请用语言叙述信息熵的定义:
若信源符号xi(i=1,2,…,N)的出现概率为P(xi),其自信息量为I(xi),则该信源各个不同符号xi所包含的自信息量I(xi)在信源空间P(X)={P(x1),P(x2),…,P(xi),…,P(xN)}中的统计平均值,即
称为信源的信息熵,简称信源熵。
其中,定义0lb0=0。
84.对信源编码的基本要求?
(1)选择合适的信道基本符号,以使映射后的代码适应信道。
(2)寻求一种方法,把信源发出的消息变换成相应的代码组。
这种方法就是编码,变换成的代码就是码字。
(3)编码应使消息集合与代码组集合中的元素一一对应。
85.简单叙述香农第二定理:
对于有噪信道的信道编码,若R
86.对于对称信道,当信源的符号消息概率怎么分布时,输出随机变量集合提供的信息量等于信道容量C?
对于对称信道,当且仅当信源的符号消息等概分布时,任何一个输入符号xi对输出随机变量集合Y提供的信息量相等,且等于信道容量C。
87.简单叙述香农第一定理:
设离散无记忆信源X包含N个符号{x1,x2,…,xi,…,xN},信源发出K重符号序列,则此信源可发出NK个不同的符号序列消息,其中第j个符号序列消息的出现概率为,其信源编码后所得的二进制代码组长度为Bj,代码组的平均长度为
当K趋于无限大时,和H(X)之间的关系为
88.香农第一定理,又称为无失真信源编码定理或变长码信源编码定理。
定理指出,要做到无失真的信源编码,编码后信源符号平均长度将不能小于信源熵,其极限情况是信源的熵值;若编码的平均码长小于信源的熵值,则单义可译码不存在,在译码或反变换时必然带来失真或差错。
89.香农第一定理表明,在无失真信源编码中,采用扩展信源的手段,虽然可以减少每一信源符号所需要的平均码符号数,使编码的有效性有所提高,但无论怎样扩展,无失真信源编码的结果,在无噪离散信道中传输的有效性是有一定限度的,其极限值就是信源熵。
当信息传输速率等于信道容量C时,编码效率达到最高,亦即信息传输的有效性最高。
并没有给出怎样来实现这样的编码,所以说香农第一定理是一个存在性定理。
90.在一般的信息传输系统中,信宿将收到的消息yj根据某种规则判决为对应于信源符号消息集合中的某一个xi,这个判决的过程称为接收译码,简称译码,译码时所用的规则称为译码准则。
91.信源编码要解决的主要矛盾是信息传输的有效性,关心的是编码效率,追求的是平均长度最短的最佳编码,采用的方法通常是尽量压缩信源中的冗余度。
但由于最佳编码的码字中冗余度已经极小,如果在传输中发生了错误,就会发生张冠李戴的现象。
实际的通信信道免不了总会存在干扰和噪声,为寻求通信的可靠性,有必要研究专门针对通信可靠性的编码,这就是信道编码。
92.香农第二定理告诉人们,对于有噪信道,只要信道编码采取足够的码长N,总存在某种编码方式,能使其传输错误概率任意小,且信道上的信息传输速率可以无限接近于信道容量,即在有噪信道中消息是可以可靠地传输的,这对于设计实际的通信系统具有十分重要的意义。
93.设由一离散无记忆信源
X:
a1,a2,a3
P(X):
1/2,1/4,1/4
构成二重扩展信源X2,求该扩展信源的熵H(X2)。
解二重扩展,即扩展信源的每个符号序列由给定信源中的2个符号组成,因此符号序列共有32=9种,分别是aiaj(i,j=1,2,3),不妨将它们看作新的信源符号,因此扩展信源又可以看作是共有9个“单符号”的离散无记忆信源。
由式H(XK)=KH(X)=
有
问题转化到求aiaj的联合概率,因为ai、aj统计独立,故P(aiaj)=P(ai)P(aj)。
略去其计算过程,得H(X2)=3比特/符号序列
而扩展前信源X的熵为
且有H(X2)=2H(X)。
94.已知某单符号离散信源的概率空间为
该信源发出的消息均为二重符号序列aiaj),(i、j=1,2,3),两个符号的关联性用条件概率P(ai/aj)表示,如表3.2所示,求H(X2)。
表3.2给出的条件概率
ai
aj
a1
a2
a3
a1
9/11
2/11
0
a2
1/8
3/4
1/8
a3
0
2/9
7/9
解由表3.2有
由P(aiaj)=P(ai)P(aj/ai),可求出9个联合概率
P(a1a1)=P(a1)P(a1/a1)=(11/36)(9/11)=1/4
P(a1a2)=P(a1)P(a2/a1)=(11/36)(2/11)=1/18
┇
P(a3a3)=P(a3)P(a3/a3)=(1/4)(7/9)=7/36
略去其计算过程,得
H(X2)=2.412比特/符号序列也可以由原信源熵和条件熵来求扩展后的熵,有
H(X)+H(X2/X1)=2.412(比特/符号序列)
95.一信源X(x1,x2,x3,x4)经编码后得码字集合S(1,01,001,0001)且一一对应。
现接收到码元序列为101110001001101011,试写出译码结果。
解该编码规则为:
x1→1,x2→01,x3→001,x4→001,每一码字均以1结尾,见1即可译码。
对所接收序列的译码结果为x1,x2,x1,x1,x4,x3,…96.一信源X(x1,x2,x3,x4),经编码后得到码字集合S(1,10,100,1000)且一一对应,现收到码序列10010111000110011010,试给出译码结果。
解该编码规则为:
x1→1,x2→10,x3→100,x4→1000。
它的信道基本符号也是“1”、“0”,也是将“1”作为一个码字,但采用在它的后面加“0”构成新码字的方法。
97.已知信源概率空间为:
,计算其信源的熵。
解:
信源的熵H(X)=-0.5log0.5-0.5log0.5=1(比特/符号)
98.设信源为
,
试求
(1)信源的熵、信息含量效率以及冗余度;
(2)求二次扩展信源的概率空间和熵。
解:
(1)
(2)二次扩展信源的概率空间为:
X\X
1/16
3/16
3/16
9/16
99.已知信源概率空间为:
,计算其信源的熵。
解:
信源的熵H(X3)=-4×0.25log0.25=log4=2(比特/符号)
100.设二元对称信道的输入概率分布分别为
,转移矩阵为
,
(1)求信道的输入熵,输出熵,平均互信息量;
(2)求信道容量和最佳输入分布;
(3)求信道剩余度。
解:
(1)信道的输入熵
;
(4分)
(2)最佳输入分布为
,
此时信道的容量为
(3)信道的剩余度:
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息 理论 编码 基础 复习题