信息.docx
- 文档编号:26011528
- 上传时间:2023-06-17
- 格式:DOCX
- 页数:29
- 大小:114.38KB
信息.docx
《信息.docx》由会员分享,可在线阅读,更多相关《信息.docx(29页珍藏版)》请在冰豆网上搜索。
信息
第二章信息
1998年10月
本章解释“信息”的含义。
什么是信息?
第一节熵
从热力学和统计物理学看“无序”
第二节香农理论
信息论基础和信息熵
第三节维纳的信息观
控制论的信息观点
第四节连续信源
从测不准原理看信息的本质
第五节信息是有序度
定义信息
第一节熵
信息系统的根本概念是信息,而信息与熵是密不可分的。
热力学与信息论有一定的联系,必须从物理上回顾若干基本概念才能理解信息系统。
对热力学和平衡态统计物理学熟悉的读者可跳过本节。
1.热力学第二定律
在热机效率的研究中,提出了热力学第二定律,它指出了宏观过程的不可逆性。
第二定律对于物理学、信息理论和生物学都有巨大的意义,对第二定律的思考推动了非平衡态统计物理学、信息的本质问题、生命的本质问题的研究。
第二定律有多种表达方式,最常用的是:
①克劳修斯表述:
不可能把热从低温物体传到高温物体而不产生其他影响。
也就是说,不可能有这样的及其,它完成一个循环后唯一的效果,是从一个物体吸热并释放给高温物体。
②开尔文表述:
不可能从单一热源取热,使之完全变为有用的功而不产生其他影响。
可以证明,这两种表述在逻辑上是等价的。
第二定律的克氏表述实质上说热传递过程是不可逆的,开氏表述实质上说功转变为热的过程是不可逆的。
两种表述的等效性实质上反映了各种不可逆过程的内在联系。
正是这种内在联系使第二定律有多种表述形式,只要挑选出一种和热现象有关的宏观过程,指出其不可逆性,就可以作为第二定律的一种表述。
也正是这种内在联系,使第二定律的应用远远超出了热功转化的范围。
根据卡诺定律,对孤立系统,任意循环过程都有克劳修斯不等式
,dQ为系统从温度为T的热源所吸收的热量,等号对应可逆过程,不等号对应不可逆过程。
若系统从初态A经过可逆过程“1”变到末态B,又经过任意另一可逆过程“2”回到A,构成一个可逆循环,则有
,于是
的值与状态A,B之间经历的过程无关,完全由初态A和终态B决定,被积函数应当是一个状态函数的全微分(格林公式)。
这一状态函数称为熵(Entropy),以S表示。
则
或
熵的单位为J/K(焦耳/开尔文)。
对于不可逆过程,根据熵的定义和克劳修斯不等式,有
,
对于不可逆微变化过程有
上式是热力学第二定律的直接结果和概括,是热力学第二定律的数学表达式。
对于绝热过程,dQ=0,因而dS≥0。
即系统经过绝热过程由一态到达另一态时,系统的熵永不减少。
此即熵增加原理。
也可说为:
“一个孤立系统的熵永远不会减少。
”(如果系统是孤立的,其内部的一切变化与外界无关,必然是绝热过程)。
非平衡态的熵可以定义为处在局部平衡的各部分的熵之和。
根据熵增加原理,孤立系统越接近平衡态,其熵值越大。
当系统的熵达到最大时,系统达到平衡态,过程不再进行,只要没有外界作用,系统将始终保持平衡态。
因此,可由孤立系统熵的变化来判断系统终过程进行的方向。
只有dS≥0的过程才是允许的。
可以证明熵增加原理与热力学第二定律的开氏、克氏表述等效。
热力学第二定律指出:
对一孤立系统,一些不可逆过程都会使熵增大,一切不平衡态都最终趋向平衡态。
平衡态的特点是熵最大。
在平衡态下,体系混乱度最大,无序性最高,组织程度最差,而且一旦进入平衡态,便维持这个平衡态,不能飞跃为另一种新的有质的不同的状态。
第二定律指出了时间的不可逆性。
生命的出生、生长、衰老、死亡都充分显示了时间的不可逆性。
但大多数物理定律都是可逆的,它们当中包含有时间,但与时间前面的符号无关,当t变为-t时这些定律保持不变。
只有当考察与热力学第二定律有关的现象时,如摩擦、扩散、能量转移等,才出现时间的不可逆性。
生命和热力学第二定律都表现了时间的不可逆,这个问题引起了人们极大的兴趣和思考。
2.熵的微观解释
L.波尔兹曼首先建立了熵与系统微观性质的联系,从而使熵这个抽象的物理意义得到深入的解释。
k代表波尔兹曼常数1.380658×10-23J·K-1,W代表某一宏观态所对应的微观态的数目(或称热力学概率),则熵的统计表达式为
S=klnW+S0
其中S0为熵常数。
当S0为0时,得到波尔兹曼关系式
S=klnW
因此可以把熵看成是与系统状态无序度相联系的量。
系统无序程度越高,即系统越“混乱”,其对应的微观状态数目越多,熵就越大;反之系统越有序,熵就越小。
如前所述,根据热力学第二定律,一个系统在封闭情况下,总是自发地由有序到无序,熵总是增加的。
如在一个封闭的系统终装有一个容器,内有两种气体,一种气体停留在容器的一端,而另一种气体停留在容器的另一端,这时,两种气体内的分子分别处于有序状态,系统的熵最小,但这种状态不会保持很久,不一会儿,它们就混合起来,随着两种气体分子逐渐在整个容器内扩散,分子之间的排列越来越无序,熵就越来越大,在两种气体完全混合时,分子混乱程度达到最高点,这时,熵达到最大值,所以熵是系统的无序状态的量度。
从熵的微观解释可以进一步理解“不可逆过程”的实质。
不可逆过程实质上是一个几率较小的状态到几率较大的状态的转变过程,所以此相反的过程的几率是非常小的。
这相反的过程并非原则上不可能,但因几率非常小,实际上是观察不到的。
在孤立系统内,一些实际过程都向着状态的几率增大的方向进行,熵不增是一条统计规律。
例如,如果一间屋子里的气体分子在漫长时间的观察下,可能全部运动到屋子的左半部,而使右半部处于真空中。
这种事并非原则上不能发生,而是由于气体分子数量极为巨大(阿佛加德罗常数为1026量级),发生的平均时间远远超出太阳系的年龄,实际上是观察不到的。
对生命中的不可逆现象,也可以有类似的理解。
3.状态空间
克劳修斯在1865年引入熵的概念后,波尔兹曼给出了统计解释。
对于分子分布函数
(其中
),波尔兹曼在1872年定义如下的H量,即
并且证明了它是一个不随时间上升的量,即
≤0
这就是波尔兹曼的H定理。
除了平衡分布外,其他情况下,H(t)都随时间下降,因此,-H具有热力学熵的基本性质。
年,美国物理学家J·W·吉布斯在其《统计力学的基本原理》这本名著中,建立了平衡态统计物理的体系,进一步刻画了熵的本质。
根据经典力学,具有N个自由度的力学系统可用广义坐标q1、q2、…、qN和广义动量p1、p2、…、pN描述。
把这些qi和pi取作直角坐标,它们构成一个2N维的空间,称为相宇或相空间。
相宇中的每一个点代表系统的一种可能的运动状态。
可以想像大量性质相同的力学系统,它们的差别之在于初始条件,因而处于各种不同的运动状态。
于是相宇中的每一点代表一个力学系统。
这些系统的集合称为系综或统计系统。
力学系统随时间演化,其代表点在相宇中连续地改变位置。
统计平均对于微观运动的尺度而言,是一种长时间的平均,也就是对对应于同一个宏观状态的一切可能的微观状态求平均,或者说对系综求平均。
(即各态历经假设,实际上,这个假设是不正确的,微正则系综才是统计物理的基本假设。
)引入相宇中代表点的分布密度函数ρ(q1、…、qN,p1、…、pN,t),于是任何力学量A的平均值就是:
式中dΓ是dq1dq2…dqNdp1dp2…dpN的缩写。
如果定义ρ时引入适当比例常数,保证概率归一条件
则
类似地,定义H量为
熵
这样,熵可以看成对概率状态空间分布性质的一种刻画。
有序与无序,是对状态空间大小的描述。
“序”,与“态”联系起来了,统计物理学规律可以过渡到量子力学规律。
4.熵是无序度的量度
1927年,J·冯·诺埃曼用密度算符给出了熵的量子力学表述,称冯·诺埃曼公式
假定体系在确定的密度算符ρ所描述的状态下,具有W个不同的纯态,各纯态都以相等的概率出现,即ρ1=ρ2=…=
,则有:
此即波尔兹曼关系。
在统计物理中,可以这样理解:
具有负熵
的性质,则熵与H只相差一个系数。
定义
或
统计物理学中有一条基本假设:
如果对于系统的各种可能状态没有更多的知识,就假定一切状态的概率均等。
则ρi=
。
∴
或
=klnW
量子系统混合态中包含的纯状态越多,熵越大;反之,熵越小。
所以,熵又是体系无序度的量度。
5.热寂与进化论的矛盾
克劳修斯说:
“宇宙的熵趋向极大。
宇宙越是接近于这个熵是极大的极限状态,进一步变化的能力就越小;如果最后完全达到了这个状态,那就任何进一步的变化都不会发生了,这时宇宙就会进入一个死寂的永恒状态。
”这就是“热寂说”。
根据热寂说,宇宙将最终达到平衡态——一个宏观静止,分子排列最混乱的状态。
“一切现存的机械运动都变为热,而且这种热将放射到宇宙空间去,尽管‘力不灭’,一切运动还是会停下来”(《自然辩证法·导言》)
但事实上,自然界的演化并不总是熵增的过程。
19世纪,热力学第二定律与达尔文生物进化论分别论述了物理世界与生物世界各自截然不同的两种演化趋势。
热力学系统有从有序走向无序、从非平衡走向热平衡的退化趋势。
与此相反,生物进化论认为,生物物种的演化总是从简单到复杂,从低级到高级,从有序程度低的生命组织走向有序程度高的生命组织,生物界存在着明显的进化趋势。
例如,从无机小分子到有机大分子,再到细胞,是一个有序度增加的过程。
刘易斯·托马斯说:
“若从物质方面来看,我们存在在统计学上的几率更是小得惊人。
整个宇宙之间,物质的可预测性乃是随机性,是某种大致的平衡。
各种原子及其粒子乱纷纷四散着。
与此形成鲜明对比的是,我们则是完全组织好的物质结构,每一条共价键都有信息在蠕动着。
我们活着,靠的是在电子被太阳光子激发的一霎那就捉住它们,偷来它们每一次跃迁时释放的能量,把这些能量存入我们自己错综复杂的回路里。
我们的本性是违反概率的。
能够有条不紊地这样做,又是这么千态万状,从病毒到巨鲸一起都这样做,这是及其不可思议的。
而在我们生存的数十亿年中成功地继续了这一努力,没有漂回到那随机状态,这简直就是数学上的不可能。
”
薛定谔认为,基因是一种非常小的、不足以显示统计学规律的原子团,可它却支配着有机体有秩序、有规律的行为。
基因有三种基本特性:
一是基因的原子数量很少,一个基因包含的原子不会超过一百万各或几百万个;二是基因的不变性,由此表现为遗传模式的持久性;三是基因的突变,也就是说生物种的突变是基因的突变,因此这种突变才可以遗传。
从统计物理学的观点来看,基因结构似乎只包含了很少量的原子,可是它却以奇迹般的不变性表示了最有规律的活动,我们如何使这两方面的事实协调起来呢?
这种矛盾来自将第二定律超出它的应用范围。
在推导和表述中,第二定律一个前提是“孤立系统”,它不适用于开放系统。
宇宙是不是孤立系统?
目前还不能做出明确的回答。
“热寂说”将宇宙看作孤立系统,并没有确切的根据。
自然界中绝对的封闭系统和孤立系统是很少的,生命、社会、自动机都不是封闭的,并不完全受热力学第二定律的控制。
6.麦克斯韦的妖精
如何从无序到有序?
麦克斯韦1871年在《热的理论》中用一个与热力学第二定律不相容的悖论的形式非常清楚的提出来了。
麦克斯韦说,想象有某个生物,一个“妖精”,神通广大,能跟踪充满容器的每个气体分子的运动。
把这个容器用一道隔板分为A,B两部分,并在隔板上安装一个阀门,当阀门打开时单个气体分子可以从容器的一部分经过阀门进入另一部分去。
假设这个容器开始时完全充满了一定温度的气体,按照热的动力论,一定的温度对应于分子的一定的平均温度,因为气体分子的运动具有随机性质,有的分子的速度将大于平均值,有的则将小于平均值。
妖精在适当的时候打开阀门,让快的分子从B进入A,慢的分子从A进入B,结果不须消耗能量,B部分的温度就下降,A部分的温度就上升,热量可以自发地从低温物体流向高温物体。
为什么麦克斯韦的妖精能破坏热力学第二定律?
一般的解释是:
妖精必须得到一些“知识”,才能把“快”分子和“慢”分子区分开来。
为了获得这些信息,要不要消耗能量?
如果需要,则容器、气体、隔板、妖精作为封闭系统,为得到所要信息所需的能量,将不大于因利用这一信息而吸收的能量,并没有违反热力学第二定律。
如果系统不是封闭系统,则系统通过与外界的能量交换,有可能吸收“负熵”。
生命系统,社会系统,自动机系统,作为开放系统,都有可能向有序化方向发展。
酶,就是生命中的麦克斯韦的妖精;而人类全体作为麦克斯韦的妖精,增加着社会的有序度。
毕竟,“妖精”,用我们的话说,是个生物,也是个信息系统。
第二节香农理论
本节主要通过信息论的香农理论解释通讯条件下的信息。
信息熵的定义与熵的定义相似,有一定的内在联系。
但香农对信息的理解是包含了认识主体的状态在内的,实际上是“信息差”,并不是对事物自身状态的描述。
1.通讯系统模型与信息
在日常生活中,信息是指“消息”,“情况”等。
看电视、看报纸、看书、打电话、听广播、上网浏览,乃至聊天、开会,人们都获得了“消息”。
消息通过“消息传递系统”传递,各种系统可以抽象为通讯系统模型。
这一模型并不只限于通信系统,对于生物神经系统,遗传系统,市场的经济信号感知反馈系统,管理系统,都可以运用这个模型。
在消息传递系统中,其传输的是消息;但消息传递过程中,最普通,却容易被忽视的一点是:
收信人在收到消息以前是不知道消息的具体内容的。
消息的传递过程,对收信人来说,是一个从不知到知的过程,或者说是一个从不确定到确定的过程。
从通信过程来看,收信者的所谓“不知”就是不知道发送端将发送描述何种运动状态的消息。
例如,看天气预报前,不清楚天气的将出现何种状态;看天气预报后,这种不确定性就大大缩小了。
所以通信过程是一种从不确定到确定的过程。
不确定性消除了,收信者就获得了信息。
所以香农认为,信息是不定性的减少或消除。
即
I=S(Q/X)-S(Q/X')
I代表信息,Q代表对某件事的疑问,S代表不定性,X为收到消息前关于Q的知识,X'为收到消息后关于Q的知识。
2.不确定性
用数学的语言来讲,不确定性就是随机性,可以用概率论与随机过程来测定不确定性大小。
1948年,香农发表了《通信的数学理论》,使用概率方法,奠定了现代信息论的基础。
离散情况下,信源的数学模型就是一个概率空间
为信源可能取的消息(符号),
为选择信源符号
作为消息的先验概率。
如果知道事件
已发生,则该事件所含有的自信息定义为:
代表两种含义:
当事件
发生以前,表示
发生的不确定性;当事件
发生以后,表示事件
所含有的信息量。
即通讯前,不确定性在状态空间[X,P]中;通讯后,不确定性被缩小至状态
。
信息量单位被定义为比特(bit):
(比特)
3.离散信源的信息熵
定义自信息的数学期望为信源的平均信息量,即
此即信源的信息熵,它代表了信源输出后每个消息所提供的平均信息量,或信源输出前的平均不确定度。
试将此式与H量和熵比较:
或
显然,信息熵与熵只相差一个系数,两者可能有内在的联系。
如何理解信息熵和熵的关系?
单从概率的表达式看,两者的定义是相似的
信息熵并不是负熵,它描述的是信源不确定性而不是不确定性的减少。
信息熵大表示信源的不确定程度较大,同样是一种无序性。
香农的信息概念是人们对事物了解的不确定性的减少或消除,这一定义关注的是通信中的信息问题,所以香农信息是一种与信道相关的“信息”。
信源、信道是信宿成了认识过程的不可分割的部分,主客体是不可分的;香农的概率,是主体对客体(信宿对信源)的一种先验主观认识,这本身就加入了主体的因素。
因此,作为“通信中的数学理论”,信源与信宿在信道联系下的“互信息”,才是香农的“信息”。
4.离散信道
信道的任务是以信号方传输和存贮信息。
离散信道的数学模型是:
输入信号X=(X1…Xi…XN),输出信号Y=(Y1…Yi…YN),每个随机变量Xi和YI又分别取值于符号集X=(a1,…,ar)和Y=(b1,…,bs),其中r不一定等于s。
条件概率P(Y|X)描述了输入信号和输出信号之间统计依赖关系,反映了信道的特性,包括噪声、信道的记忆性等。
定义信道疑义度:
它表示在输出端收到全部输出符号Y集后,对于输入端的符号集X尚存在的不确定性。
对X集尚存在的不确定性是由于噪声引起的,无噪信道的信道疑义度H(X|Y)=0。
可以证明,H(X|Y) 于是定义平均互信息: 它表示收到消息y后获得的关于x的信息量(互信息)的数学期望。 可以证明对串联信道 : (X;Z)≤I(X;Y) (X;Z)≤I(Y;Z) 表示通过信息处理后,一般只会增加信息的损失,不可能增加原来获得的信息。 这意味着,在任何信息传输系统中,最后获得的信息至多是信源所提供的信息;信息一旦丢失,如不触及信源,就不能再恢复。 这就是信息不增原理,又称数据处理定理。 它与热力学第二定律是否有关系,还需要认真的思考。 熵只是平均不确定性的描述,而不确定性的消除才是接受端获得的信息量,信息量不应该与不确定性混为一谈。 从信源概率空间的角度来看,通信就是信源对信宿的概率状态空间减小的过程。 通信前对信源的不确定度大,其熵为H(X);通信后,对信源的不确定度缩小为信道疑义度H(X|Y),这是由噪声带来的,又称损失熵;两者之差就是获得的香农信息I(X;Y)。 信源状态空间缩小一半,则获得1比特信息。 第三节维纳的信息观 信息论并不是香农一个人建立的,实际上它是由好几位科学家差不多在同一时候提出来的。 香农从通信编码方面,维纳从滤波理论方面,统计学家费希尔(Fisher)从古典统计理论方面,研究了信息的理论问题。 但维纳与香农在信息概念的理解上有些不同。 香农理论中的信息熵定义为 与热力学中的熵公式是一致的,维纳在1948年《控制论》中也给出一个信息量的公式: ,刚好与香农公式差一个负号。 因此,维纳认为: “信息量是一个可以看作几率的量的对数的负数,它实质上就是负熵。 ”与热力学中熵表示系统紊乱程度相反,负熵是系统组织程度或有序性的量度,于是信息被定义为“系统组织程度或有序性的标志”。 1950年在《人有人的用处》中,维纳说: “消息集合所具有的信息是该集合的组织性的量度。 ” 为什么香农与维纳的公式刚好差一个负号? 因为香农把信源发送何种消息的不确定性看作信源本身的特性,而维纳则认为这个不确定性是信宿对信源状态估计的特征,从这个意义上,不确定性就是信宿对信源认识的熵,简而言之,是信宿的熵。 当信宿收到一个确定的消息,信宿的熵就被消除了,这样消除信宿熵的信息便有理由被认为是负熵。 总之,信息量(互信息),被当作信息熵(不确定性)的减少。 但香农信息关心的是“不确定性的减少”,即熵的变化量;而维纳信息关心的是“确定程度”本身。 注: 维纳还提出过别的定义。 在《控制论》初版导言中维纳说: “消息是分布在事件上可量事件的离散或连续的序列——确切地说,就是统计学家所谓的事件序列。 ”这时候,维纳把信息看成是物质和能量在空间、时间上的不均匀分布的表现。 在《人有人的用处》,维纳又提到: “信息这个名词的内容就是我们对外界进行调节并使我们的调节为外界所了解时而与外界交换来的东西。 ”此处,维纳将信息作为控制系统进行调节活动时,与外界相互作用、相互交换的内容。 第四节连续信源 以上对信息的讨论大都是针对离散信源的,实际上信源还包括连续信源。 我们分别从香农理论和量子力学的角度来理解连续信源的“信息熵”。 1.取样 香农理论中,连续信源的数学模型为连续型的概率空间: 并满足 一般用平稳遍历的随机过程来描述连续信源的输出。 (平稳过程如果满足“各态历经假设”,称为遍历过程。 ) 根据奈奎斯特(Nyquist)取样定理,如果某一时间连续函数f(t)的频带受限(≤F),函数f(t)完全可以由每隔Δ≤1/2F的一系列瞬时取样值确定。 频率限于F,时间限于T的任何时间连续函数,完全可以由2FT个取样值来描述。 这些取样值通常称为2FT个自由度,这样,就把时间连续的函数变换成时间离散的取值序列把随机过程变成时间离散的随机序列来处理。 实际上,时域、频域同时受限的时间函数是不存在的,时域受限的函数从理论上说其频谱必然是无限的,频率限制在F内,则在时间上必然伸展至无穷远。 信息论的这种分析方法必然带来部分失真。 2.连续信源的熵 定义连续信源的熵为: 与 定义刚好差一负号。 原因是香农信息熵就是对信源不确定性(无序程度)的描述,而H量有负熵的含义。 香农理论认为: 所定义的连续信源的熵并不是实际信源输出的绝对熵,而连续信源的绝对熵应该还要加上一项无限大常数项。 因为连续信源的可能取值是无限多个,若设取值是等概率分布,则信源的不确定性为无限大,当确知输出为某值后,所获得的信息也将为无限大。 连续信源的熵h(X)具有相对性,又称相对熵。 信息论关心的是熵差(获得的信息),而不是熵本身的大小。 两种特殊连续信源(限频F,限时T)的熵为: ∙均匀分布信源(峰值功率受限下具有最大熵的信源),X∈[a,b] ∙高斯信源(平均功率受限下具有最大熵的信源)(正态分布,σi为方差) 以后可以看到,由于各态历经假设,这两种信源具有特殊的重要性: 如果没有关于信源更多的知识,通常假定信源是熵取最大值的信源。 对连续信源和连续信道,同样有平均互信息: Y)=h(Y)-h(Y|X) 在离散变量中所得的有关结论均可推广到连续变量中来。 3.测不准原理 前面指出,在时间、频率上同时受限的时间信号是不存在的,通过采样来分析连续信源只能是一种工程的方法。 实际上,采样必然带来“信息”损失,也就是说,通过采样离散化信源状态,只能是在宏观条件下的一种近似,例如对矩形信号: 忽略频域第一个零点之外的能量,才可认为信号在时、频域上都是带限的。 傅立叶(Fourier)变换分析能较好地刻画信号的频率特性,但几乎不提供信号在时域上的任何信息。 这样,我们在信号分析中面临如下一对基本矛盾: 时域与频域的局部化矛盾。 即我们若想在时域上得到信号足够精确的信息,就得不到信号在频域上的信息,反之亦然。 为了知道F在ω处的信息,必须知道所有时间t∈(—∞,∞)上的信号信息。 在电子和通讯中,还有一些矛盾,如: 编码可靠性和有效性的矛盾,信道容量和传输率的矛盾,放大器增益和带宽的矛盾。 它们实质上与时频域矛盾是等价的。 能不能在傅立叶分析之外,找到其他的分析手段,使我们可以同时精确获得信号的时域信息和频域信息呢? 1964年,Gabor引入了窗口傅立叶变换;1984年,Morlet引入了小波(Wavelet)变换。 这些变换的思想是: 将时—频域平面分割为一组“小窗口”,这些“窗口”不重叠地铺满全平面,对应于一组正交滤波器,从而同时获得信号的时频域信息。 窗口面积越小,则在时域和频域上的局部化程度越高。 小波变换由于对信号细节的描述能力,被喻为“数学显微镜”。 但是,小波变换窗的时域宽度和频域宽度是有一定约束的,两者无法同时都任意小。 设g(t)为窗口函数,其傅立叶变换为 ,则必有: 这说明,我们不可能同时精确地获得信源的时间信息和频率信息。 在傅立叶变换F(ω)中 而 ,在
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息
![提示](https://static.bdocx.com/images/bang_tan.gif)