第一章熵与信息张学文.docx
- 文档编号:4280900
- 上传时间:2022-11-28
- 格式:DOCX
- 页数:21
- 大小:225.93KB
第一章熵与信息张学文.docx
《第一章熵与信息张学文.docx》由会员分享,可在线阅读,更多相关《第一章熵与信息张学文.docx(21页珍藏版)》请在冰豆网上搜索。
第一章熵与信息张学文
第一章熵与信息
(电子版:
盛艳霞OCR,编辑张学文2007.12-2008.01)
1、对事物不肯定程度的度量——熵
2、熵函数的性质
3、连续的随机变量的熵
4、随机矢量的熵
5、条件熵
6、信息‘
7、正态分布下的信息收获
8、信息在变换中的保守性
第一章熵与信息
很多自然科学的发展历史都说明了当一门学科逐步成熟时,经常把它的一些重要概念从定性走向定量化。
事实证明,这些定量化了的东西对于探讨它们之间的逻辑、数学、物理关系有莫大好处。
显然,如果至今我们对机械的、电的、光的、热的……等种种形态的能量如何定量地表示出来都搞不清,恐怕我们也难以有现代的科学技术水平。
类似地讲,假如我们对气象观测和气象预告任务的大小没有一个定量地科学地测度办法;对预告因子的预告本领的大小和预告方法的优劣没有一个定量地、科学地测度办法,那么也难以对制约着气象预告过程中的种种定量关系了解清楚。
我们认为信息论中的熵与信息的概念恰好就是测度这些量的一个计值系统。
这一章中我们即对熵与信息的概念、计算和它们的一些内在关系作一简要介绍。
1、对事物不肯定程度的度量——熵
在日常生活中和科学领域,人们经常看到一些事件,它们的结局是事先不能完全肯定的。
这常被称为随机事件。
掷一枚硬币,正面还是反面向上?
掷一个骰子那一点向上?
这些都事先不能肯定。
观测一次气温其数值是多少?
也是事先不能肯定。
只要认真思考一下我们周围事物中这种事先不肯定的事件确实不少。
研究这种事物固然比研究必然性的事物困难得多,但人们还是找到了从某些侧面研究它的办法。
为要恰当定量地把事物的不肯定程度的大小表示出来,信息论中就引入了熵的概念。
在前例中显然掷硬币结局的不肯定性要比掷骰子结局的不肯定性要小些。
先把这两个事件和它们的概率分布(分别为1/2和1/6)表示如下
掷硬币事件A
A1
A2
正面
反面
出现概率p(A)
1/2
1/2
掷骰子事件B
B1
B2
B1
B4
B5
B6
1点
2点
3点
4点
5点
6点
出现概率p(B)
1/6
1/6
1/6
1/6
1/6
1/6
这里事件A(掷硬币)有两个概率都为1/2的结局。
事件B(掷骰子)有六个概率都为1/6的结局。
从直观上看B的结局多,不肯定性比A大。
所以凡是概率相等的事件的个数(A为2,B为6)愈多,则不肯定性愈大,我们就说熵愈大。
以H表示熵则有
H=f(k)(1.1)
H(A)=f
(2)
H(B)=f(6)
H(B)>H(A)(1.2)
这里H(A)和H(B)分别表示A和B两事件的熵。
f是某种函数。
k是概率相等的事件的总个数。
为了决定函f的形式,我们再考虑由各掷一次硬币和骰子组成的复合事件。
当A为A1时B有六种可能情况。
A为A2时B又有六种可能情况。
故复合事件由12个可能结局组成。
依概率论中独立事件的乘法定理。
每个结局出现的概率都是(1/2)×(1/6)=1/12。
即仍为概率相等的事件,仅是事件个数k=12而已。
故有
H(A,B)=f(12)(1.3)
这时我们希望这种由复合事件构成的事件的熵为各个事件的熵的和(两事件独立时)。
即有
H(A,B)=H(A)+H(B)(1.4)
或
f(12)=f
(2)+f(6)(1.5)
再则,当某一事件只有一个结局时,它也就是不再是不肯定事件,而是出现概率为1的必然事件。
这时希望不肯定程度变成零,即有
f
(1)=0(1.6)
不难看出,如f取对数(log)形式,则恰可满足(1.2),(1.5)和(1.6)式关系。
实际上信息论创造者Shannon等人推得的不肯定性的度量H恰好就是这种形式,即
H=logk(1.7)
(1.7)式就是由k个概率相等的互不相容事件组成一个完备事件时,每一个结局出现的不肯定性的大小的熵值。
这时共k个可能结局。
故每一结局出现的概率p为1/k。
即(1.7)式也可以改写成
H=logk=-log(k)-1=-log(1/k)
H=-logp(1.8)
实际上(1.8)式不仅可以用于每一结局的出现概率完全相等的场合,而且可以推广到各结局出现概率不相等的场合上去。
现设某地刮风与否问题C分为不出现大风C1和出现大风C2两种情况。
其对应的出现概率分别为0.9和0.1。
这时问:
出现和不出现大风的熵各是多少。
显然由于不出现大风的肯定性大,故它的熵——不肯定程度就要小。
而出现大风的熵就要大些。
这时应有H(C1)<H(C2))。
实际如有(1.8)式则有-log0.9<-log0.1。
这说明用(1.8)式时对各事件是否概率相等并无关系。
这就是说某事件的出现概率如是p,则它出现的不肯定程度——熵就是-logp。
依对数性质不难知在p仅能出现与0到1之间时(概率性质)-logp都是正值。
上例中大风出现和不出现的概率不相等熵也就不相等。
我们可否进而问刮大风与否(C)的熵是多少?
当然可以,为表示这一综合的情况最好是用出现大风与不出现大风的熵的平均值代表它。
不过大风出现和不出现的概率不相等,取平均时地位也不应相等。
一个妥当办法就是依其出现概率作加权平均。
即出现机会多的在平均值中的地位相应增加。
这样刮大风与否的熵H(C)为
H(C)=p1H(C1)+p2H(C2)
=-p1logp1-p2logp2
或
(1.9)
这样我们就得到各事出现概率不等时总的平均熵值。
这个由各事件的熵作加权平均的算法也可以推广到有任意个结局的场合去。
即有
(1.10)
这里事件共有且仅有n个结局。
这n个结局是互不相容事件,且各事件概率之和为1。
即有
(1.11)
(1.10)式概括了掷硬币、掷骰子和刮大风的例子。
它是离散的随机事件的总的平均熵的普遍表达式。
对离散的随机变量的熵也用此式计算。
(1.8)式是某一特定事件的熵的表达式。
(1.10)式则是n个互不相容的且恰好组合成一个完备事件的n个事件的
平均熵。
在信息论和本书中绝大多数都是研究这个平均熵。
故(1.10)式在今后要广泛应用。
这里只要知道了概率分布即可算出熵值。
计算熵值时对数以什么为底都可以,只要前后统一即可。
某些计算中以自然对数为底较方便。
这时求得的熵叫奈特(nat),它是naturalunit的缩写。
有时以10为底方便。
不过广泛应用的是以2为底。
这时算得之熵叫比特(bit),即熵以比特为单位。
本书后附有一个-plog2p表,可供直接从概率查得对应的熵的比特数值。
利用对数换底关系
log2x=3.321928log10x
log2x=1.442695logex=1.442695lnx(1.12)
不难把不同单位的熵换算过去。
今后计算连续的随机变量的熵时,常出现以自然对数为底的算式。
这时求得之熵即为奈特。
如计算时把ln改在log2,则即成为以比特为单位的熵值。
利用(1.7)式知掷一硬币时H=log22=1比特。
即一个比特的熵对应的不肯定性与掷硬币的二择一的情况相当。
如某事件有2n个等概率的结局,依(1.7)式熵H=log22n=n比特。
2、熵函数的性质
从(1.10)式看熵由n个-plogp相加而得。
因p介于0—1之间,故除了必然事件时p=1和不可能事件时p=0的场合下-plogp为0外,其他场合-plogp都大于零。
故熵在离散场合不会为负值。
如研究某地天气状况的熵时,我们把天气分成晴、多云、阴和有雨四种状态。
则不难从气候资料中统计它们的出现频率以代表概率求得天气状况的熵。
假设我们把有雨再进而分成微雨、小雨、中雨、大雨、暴雨五种情况。
则总共实有八种情况,依此可求得另一熵值。
显然后一划分办法下结局的不肯定性大,故熵也大。
但大多少可否有一般的公式表示它?
!
这就引出了对事件结局采用不同粗细划分时,它们间的熵的关系的问题。
在我们研究不同类型和不同服务需要的气象预选问题时就常碰到这类问题。
所以信息论上如给出一个一般换算公式会为我们计算熵值节省了不少事。
熵的可加性质恰好回答了这类问题。
下面即用更完整的说法提清楚问题,并给出算式。
其推导过程从略。
如最初把事物结局划分成n个,每一结局Ei有一确定的概率pi。
依(1.10)可以算得一个熵值我们称之为H1。
现设我们对其中某一结局En(不一定仅是一个,也不一定恰是第n个)又划分成m个互不相容的事件F1,F2…,Fm(参看图1.1)则可有如下事件代数的等式
En=F1+F2+…+Fm
以q1,q2,……,qm分别表示F1,F2…,Fm各事件的出现概率,则应有
图1.1事件En又被分成m个F事件之和
依概率乘法定理,在En已经出现的条件下Fk出现的概率p(Fk|En)应有
qk=pnp(Fk|En)
或
p(Fk|En)=qk/pn
在En已经出现的条件下,由F1,F2……,Fn又组成了一个完备事件。
其中第k个事件的出现概率即qk/pn。
这样我们即有三个完备事件,而且有三个熵
它们分别代表由各个E、各个E和F,以及En已经出现由各个F组成的事件的熵。
不难推得这三个熵有如下简单关系
H2=H1+pnH3(1.13)
这个结果很简单。
它说明了对原事件中某一特定事件再进行划分时新的熵(H2)为原熵(H1)加上新划分事件的熵(H3)的加权以后的和。
加权系数就是被划分的这个事件出现的概率。
当研究有n个结局的事件的熵时,这个熵的大小是由这n个结局的出现概率决定的。
当这n个概率恰好相等时,也就是每个的出现概率都是1/n时熵达到极大值。
依(1.10)式此极大值应为
(1.14)
例如n=2时H为1比特;当风按八个方位计算时它的熵最多不超过3比特。
一般说来有n个结局的事件的熵小于或等于logn,即有
H≤logn(1.15)
由于此式常用,本书后附有一个log2n表。
熵还有些有趣的性质我们不讨论了。
3.连续的随机变量的熵
(1)连续的随机变量的熵
在前面讨论离散的随机变量的熵时,我们看到只要知道了各事件的出现概率即可用一个求和的公式(1.10)完全确定它的熵值。
当随机变量为连续的情况下,我们对其概率的了解就常表现为已知一个概率分布密度函数。
这时连续随机变量的熵就由一个与求和公式(1.10)类似的积分公式所定义,即称
(1.16)
为连续随机变量X的熵。
这里f(x)就是X的概率分布密度。
另外,我们知道在概率论中常以E(X)表示随机变量X的数学期望值。
即有
(离散时)
(连续时)
现在我们把-p(xi)[或-f(x)]看成随机变量X的函数,即它也是一个随机变量(与X有确定关系并与X一起都是随机变量),这样就可将X的熵看成是-p(xi)[或-f(x)]的数学期望值。
即将(1.10)和(1.16)式改写成
(1.17)
这种简明的写法不仅使离散与连续的熵的公式更统一一些,而且也使我们对熵加深了一层认识。
由于气温的概率分布密度本来就接近正态分布,按概率论中的中心极限定理,它的大样本平均值就更接近正态分布了。
设某地某月气温的标准差σ为2℃,则依正态分布其概率分布密度函数为
式中a为气温的数学期望值。
e为自然对数的底。
将上式代入(1.16)并积分得
(1.18)
如用以2为底的对数计算则求得之熵即以比特为单位而有
(比特)(1.19)
如果用方差D(=σ2)代替σ则也可以写成
(比特)(1.20)
这两个式子以后常用,为方便计,书后附有从标准差(σ)或方差(D)直接查H的两个简表。
以上两式中
是个常数,其数值为2.047096比特。
计算正态分布的连续随机变量的熵的这些算式中仅有一个变量,就是标准差或方差。
即知道了σ或D则就知道了H。
前例中σ=2℃代入求得某地某月份月平均气温的不肯定程度——熵为3.045比特。
仔细分析以上结果我们可以看到这3.045比特是在标准差以摄氏度为单位时算出来的。
如果把标准差的计量单位缩小10倍,即以0.1℃为单位。
那么标准差变成了20。
结果求熵的算式中的log2σ即从log2σ=1比特变成了log220=log22+log210=4.322比特。
即熵值加大了log210而变成6.367比特了。
仿此将计算标准差的单位再改成0.01℃,不难算得熵为9.689比特。
以上算例表明连续随机变量的熵的大小与计量随机变量变动程度——这里是标准差——的单位有关。
如果把前例中的计量单位加大10倍,则σ=0.2,求得H=-0.277比特。
即这时熵成了负值。
前面在离散场合已经指出必然事件时,熵为零。
结局不定则熵大于零。
现在为什么熵会因计量单位而变,而且竟会变成负值?
是否熵这个概念出了什么问题?
不是,不是概念本身有什么不妥,而是把概念从离散场合扩展到连续场合时我们从物理上分析的不够。
实际上,在离散场合我们已经看到熵的大小与把事物的结局的个数区分的粗细密切相关。
区分的愈细,结局的不肯定程度愈大,熵也就愈大。
在离散的场合这种区分是事先讲明的。
对于连续的随机变量,我们事先没有讲如何区分不同的结局。
但当我们计算用到一些计量单位时实际上也就是以这对应的计量单位作为划分事件结局的间隔。
前面的月气温熵约为3比特的算例,也就是说我们以1℃为间隔划分气温为不同结局时,它的不肯定性约为3比特。
如以0.1℃单位计量标准差,那么算得熵为6.367比特,即气温以0.1℃为间隔划分不同结局则为此值。
这时事物被又细分了10倍,熵就增加了log210。
如月气温为10℃为间隔来划分之,这时算得熵为负值。
即在这么大的计量单位、在这么粗的划分办法下,气温不再有什么不肯定性,而且比必然事件(离散时我们曾定其熵为零)似乎还要有把握。
熵为负值在此可理解为把计量单位搞得比现有单位再细一些,仍然是必然事件。
但是不要忘记,正是为了研究事物的不肯定性我们才引入了熵的概念。
当选用某种单位使算得的熵变成零或负值,这本身已经表明这里已不存在不肯定性。
从而也就没有再值得分析、研究的问题了。
所以也可以说H≤0说明问题提的本来就不恰当(淹没了或者勾销了要研究的问题)。
在我们今后的工作中只要对有关问题选用适当单位,就不会出现H≤0的情况。
以后关于熵和条件熵的讨论都是针对它们大于零的情况而言的。
(2)连续的随机变量的熵的性质
为以后应用方便,这里把标准差为有限值时熵的极大值问题和随机变量的函数的熵讨论一下。
前一个问题是已知某连续的随机变量有一有限的标准差,问它的概率分布密度呈什么形式时恰使熵达到极大值,并问此极大值的计算式是什么。
利用变分法可求得概率恰呈正态分布时使熵达极大值。
此极值也就是前面得出的(1.18),(1.19)(1.20)式。
这就是说只要变量有一个标准差,那么用它的任何概率分布密度函数,再依(1.16)式求得的它的熵都不会比正态分布时求得的熵值更大。
概率分布密度为f(x)的连续的随机变量X与变量Y互为单值的函数关系。
研究X与Y的熵值关系,就成为随机变量的函数的熵值问题。
如已知Y的概率分布密度为ρ(y),那么X落在x到x+dx区间内的概率f(x)|dx|也就对应于Y落在y到y+dy区间内的概率ρ(y)|dy|。
即有
ρ(y)|dy|=f(x)|dx|
或
ρ(y)=f(x)|dx/dy|
如对Y也求其熵则有
将前面结果代入得
经整理即得
(1.21)
上式表示了把随机变量X经过一个可逆函数变换变成新的变量Y时,新变量的熵为原熵值再加上(1.21)式右侧的一个积分项。
在Y与X为线性变化时,即有
y=ax+b
关系时(a和b都是常数)则此积分变成了log|a|,而有
(1.22)
即两者差一个常数log|a|。
前面讨论标准差的计量单位从1℃变成0.1℃对应于现在的a=10的情况。
依(1.22)式熵应增加log2|10|=3.32比特。
这与前面的结果一样。
(1.22)式中没有出现b,这表明线性变换时坐标原点的移动对熵值没有影响。
4.随机矢量的熵
如有两个随机变量X,Y也可以类似地求它们的联合熵H(X,Y)。
有时也称为复合熵。
在离散和连续的场合下它们的算式分别为
(离散)(1.23)
和
(连续)(1.23)
这里p(xi,yj)和f(x,y)分别为对应的联合概率。
n,m分别为X,Y的结局个数。
以上两个式子也可以类似地写成数学期望的形式
H(X,Y)=-E[logp(xi,yj)](离散时)
H(X,Y)=-E[logf(x,y)](连续时)(1.24)
对多维的随机变量最好作为随机矢量处理。
一个n维的随机矢量X的n个分量X1,X2……Xn都是随机变量。
随机矢量的熵量也可类似地表示为
H(X)=E[-logf(x)](1.25)
这里f(x)是联合概率。
H(X)是矢量的联合熵。
但这个熵本身是标量,不是矢量。
如矢量的各分量的标准差和它们间的相关矩都为确定值,那么这个随机矢量的熵就在其联合概率分布密度为n维正态分布时达到极大值。
此熵值为
(1.26)
式中|K|为各分量的相关矩阵的行列式,即有
(1.27)
上式中kij即为分量Xi和Xj的协方差(i=j时为方差)。
(1.26)式在计算正态分布熵值时我们要经常用。
对连续的随机矢量X如把它变成另一个与它可成可逆变换的随机矢量Y,即Y的各分量与X的各分量有如下互为单值函数关系
(1.28)
那么H(X)和H(Y)有什么关系?
这就是随机变量的函数的熵的问题扩大到矢量场合的情况。
其关系与(1.22)式有些类似
(1.29)
此外||仍表示绝对值。
而J(x/y)为坐标变换的jacobi行列式,即
(1.30)
无论是随机变量还是随机矢量,它们的函数熵值公式(1.22)和(1.29)都是对连续型的变量而言的。
在离散场合下这种可逆变化并不影响熵值。
例如把骰子上的点数都乘4,结果骰子的点数变成4,8,12,16,20,24。
这样变量是变了,但新变量的熵仍为log6。
5、条件熵
(1)条件熵
我们已经知道,对变量X的概率取对数,然后对其取数学期望,所得结果的负值即是X的熵。
如在另一随机变量Y=yi时用条件概率p(xi|yj)的对数取数学期望的负值,即求
则称H(X|yj)为yj时X的条件熵。
把它再对yj为不同值时依p(yj)作加权平均就得到经常用的所谓Y已知对X的条件熵
(1.31)
上式中后边一个是连续情况下的条件熵。
这里p和f都是相应变量的条件概率或概率密度。
利用概率乘法还可用联合概率p(xi,yj)和联合概率密度f(x,y)来分别表示离散和连续时的条件熵
(1.32)
根据对数性质又可以将(1.32)式写成
H(X|Y)=H(X,Y)-H(Y)
如果我们求X已知时Y的条件熵,类似地有
H(Y|X)=H(X,Y)-H(X)
这两个式子是对称的。
可以合并写成
(1.33)
这个式子把联合熵、条件熵与熵连系了起来。
从物理上我们对条件熵也易于理解。
例如我们可以求人的身体高度的熵,它表示了身高的不肯定程度。
这是无条件熵。
如求在年龄为一岁、五岁、二十岁时的条件熵都比无条件(年龄)约束时求得的熵要小。
即条件熵要比无条件熵小。
这说明了多知道了一个条件(年龄)也就减少了一些事物结局的不肯定性。
或者说多一份知识就消除一部分疑惑。
离散变量的条件熵也可以列写为数学期望形式
连续变量时有
以上关系对随机矢量也适用。
(2)条件的性质
条件熵也与熵类似,离散随机变量不会出现负值,即
H(X|Y)≥0(1.34)
连续随机变量的条件熵也和熵一样,在对变量的计量单位选择不当时会出现负值。
其出现负值的原因也和熵的情况相似。
只要我们也和计算熵时那样,注意对变量的单位选择就可以避免这种情况。
实际上研究的条件熵都是大于或等于零的。
即我们研究的连续变量(1.34)式也成立。
还可以证明条件熵不大于无条件熵
H(X|Y)≤H(X)(1.35)
在X与Y独立时不难推得条件熵与原熵值相等。
即
H(X|Y)=H(X)(1.36)
这说明虽然已知Y值,但因它与X独立无关,所以对它的不肯定程度没有什么压缩。
在X,Y独立时(1.33)式变成
H(X,Y)=H(X)+H(Y)(1.37)
如n个变量X1,X2…,Xn是独立的不难得
(1.38)
如它们之间是独立的,则不难利用(1.33)推得
(1.39)
这里H(Nn|X1,X2…,Xn-1)表示在X1,X2,…,Xn-1这n-1个变量已知时Xn的条件熵。
在(1.35)式两侧加上H(Y),再利用(1.33)关系又可得
H(X,Y)≤H(X)+H(Y)(1.40)
这表明联合熵不会大于各变量熵值的和。
6、信息
(1)信息
前面举的已知年龄时人体身高的熵比无此已知条件的身高熵要小的例子说明了对年龄的状况的了解消除了一些对身高的不肯定性。
也可以说关于年龄的知识中含有关于身高的信息。
显然原熵值与条件熵的差恰好表示了消除了多少不肯定程度。
这也就表示了它带来了多少信息。
依此分析我们把Y带来(或说含有)关于X的信息IY(X)表示为原熵H(X)与条件熵H(X|Y)的差
IY(X)=H(X)-H(X|Y)(1.41)
H(X)大,表示不肯定程度大。
H(X|Y)小表示已知Y时对X的疑惑程度大为减小。
这时Y带来关于X的信息就大、就多。
这样的信息定义与一般生活中直观对信息的理解是完全一致的。
由于信息是熵值之差,所以它的计量单位与熵是完全一样,也常以比特为单位。
在(1.41)式中如令变量Y恰为X,那么式中的H(X|Y)成了H(X|X)。
但H(X|X)的含义是X已知时X的熵,而X已知时X已是必然事件,它不再有不肯定性,即H(X|X)=0把此结果代入信息公式(1.41)得
Ix(X)=H(X)(1.42)
这个式子告诉我们当已知X结局时,它所带来的信息恰好与它的熵值相等。
信息公式也可以以数学期望形式写成
(1.43)
当X和Y都是随机矢量时也有如上相应的关系。
(2)信息的性质
如果Y与X独立,依(1.36)条件熵H(X|Y)=H(X)将其代入信息公式(1.40)得
IY(X)=H(X)-H(X|Y)
IY(X)=0(1.44)
即独立于X的变量不会带来关于X的任何信息。
如果Y与X有关,利用H(X)≥H(X|Y))关系即得
IY(X)≥0(1.45)
这表明信息只能大于或等于零,而不会像熵那样有时出现负值。
从(1.43)式中后一个式子对X和Y的对称性质立刻得到IY(X)=Ix(Y)(1.46)
这表明Y中含有X的信息恰等于X中含有的关于Y的信息。
例如乌鲁木齐天气含有多少关于北京天气的信息,那么北京天气也含有同样多的关于乌鲁木齐天气的信息。
这个结论似于我们往常的一般天气见解有差别。
(1.46)式对随便机矢量也成立。
根据(1.46)式又可将IY(X)写成
IY(X)=H(Y)-H(Y|X)
对确定的H(Y)而言,信息IY(X)在H(Y|X)=0时达到极大值。
此极大值即为H(Y)。
这就是说Y提供的关于X的信息最多则与它本身的熵相等。
这一简单结论对我们很重要。
因为如把Y视为预告因子,X视为预告对象那么预告因子提供的关于预告对象的信息最多与预告因子本身的熵值相等。
或说预告因子最大的预告本领也就是它的熵。
今后我们在计算基本预告因子熵值上要用很大力量,原因就在于这个熵值恰好测度了每个预告因子最多有多大的预告本领。
如有n个预告因子Y1,Y2,……,Yn它们与预告对象X有关,我们把Y1,Y2,……,Yn视为一个变量并用信息公式(1.40)则有
IY1,Y2,……,Yn(X)=H(X)-H(X|Y1,Y2,……,Yn)
现把上式右侧加入H
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第一章 信息 张学文