基于信源模型图像编码的数据压缩算法的研究与实现Word格式文档下载.docx
- 文档编号:13239650
- 上传时间:2022-10-08
- 格式:DOCX
- 页数:63
- 大小:1.20MB
基于信源模型图像编码的数据压缩算法的研究与实现Word格式文档下载.docx
《基于信源模型图像编码的数据压缩算法的研究与实现Word格式文档下载.docx》由会员分享,可在线阅读,更多相关《基于信源模型图像编码的数据压缩算法的研究与实现Word格式文档下载.docx(63页珍藏版)》请在冰豆网上搜索。
2.1基于信源模型的图像压缩技术分类7
2.2分形图像编码8
2.2.1分形图像编码的基本原理8
2.2.2分形图像压缩的基本算法9
2.2.3分形图像压缩的特点12
2.3模型基图像编码13
2.3.1模型基图像压缩的基本思想14
2.3.2人脸模型化15
2.3.3模型基编码的特点17
第三章矢量量化图像编码的研究18
3.1矢量量化的定义18
3.2量化的关键技术19
3.2.1码书设计19
3.2.2码字搜索21
3.2.3索引分配22
3.3相关改进算法23
3.3.1改进的覆盖聚类算法23
3.3.2改进的SA-LBG算法24
第四章软件系统的整体设计与实现29
4.1软件系统的整体设计及模块实现说明29
4.2算法的VC++实现的简单说明36
4.3矢量量化编码的性能和复杂度37
4.4算法的结果38
第五章结束语39
参考文献40
致谢42
附录43
摘要
伴随着科技的发展,社会的进步,在多媒体压缩范畴里,人们认识到对信源的建模表达能使压缩技术取得更大的进展。
于是产生了一系列的基于信源模型的图像压缩技术。
本文在概要论述基于信源模型图像压缩技术的基础上,重点研究了矢量量化图像压缩。
矢量量化一直是图像编码领域最常用的有损压缩技术之一,具有信息理论概念上的最优性和实际应用的简易性。
在编码过程中,矢量量化编码器在码书中为每个输入图像块矢量寻找最匹配码字,并将其索引号而非码字本身传送到解码端,因而此编码算法能提供较高的压缩比,解码过程也只需进行简单的查表操作。
论文主要的研究工作体现在以下几个方面:
系统地综述了矢量量化的三大关键技术,即码书设计、码字搜索和码字索引分配。
在此基础上提出了改进的LBG算法。
同时还介绍了分形图像压缩和模型基图像压缩的基本原理及算法,旨在深入了解信源模型图像压缩的技术。
关键词:
信源模型,矢量量化,分形图像压缩,模型基图像压缩
ABSTRACT
Withthedevelopmentoftechnology,andtheprogressofoursociety,inthemultimediacompressioncategory,peoplerealizedthattheexpressiononsourcemodelcanmakethecompressiontechnologyhavegreaterprogress.Asfollows,aseriesofimagecompressiontechnologybasedonthesourcemodelhavebeencreated.
Theconceptionsandalgorithmsforimagecodingbasedonsourcemodel,andfocusestheresearchonvectorquantizationimagecompressionalgorithmsisbeensummarilyintroducedinthisthesis.VectorQuantization(VQ)haslongbeenestablishedasanefficientlossycompressiontechniquepopularinimagecodingfieldduetoitsoptimalityininformationtheoryandsimplicityinpracticalapplications.Byfindingthenearestcodewordinacodebookforeachinputimageblockvectorandtransmittingthecodeword’scorrespondingindextothedecoder,VQcodingalgorithmcanusuallyprovidehighcompressionratioandasimpletable-look-updecodingoperation.Themainresearchworkandcontributionsofthisthesisareasfollows:
Firstly,thisthesissystematicallysummarizesthreekeytechniquesofbasicVQ,i.e.codebookdesign,codewordsearchandcodewordindexassignment,andsomeadvancesofLBGalgorithmsarepresented.
Atthesametime,theconceptionsandalgorithmsforFractalimagecodingandModelBasedimagecodingisalsobeenintroduced.Thepurposeistodeepunderstandthetechniqueofsourcemodelimagecompression.
KEYWORDS:
sourcemodel,vectorquantization,fractalimagecoding,modelbasedimagecoding
第一章绪论
1.1课题研究的意义
每天我们都是在报纸、杂志、书籍、电视、各种小册子等大量的图像信息包围中度过的。
这些图像包括文字、照片、图表、插图等,它使我们感到安适和生活情趣。
据统计,人们通过感觉器官收集到的各种信息中,视觉约占65%,听觉约占20%,触觉约占10%,味觉约占2%[1]。
随着信息处理技术的发展,出现了文本、声音、图像、视频等大量不同类型的听觉和视觉媒体数据。
进入信息时代以后,人们越来越多地依靠计算机来获取和利用各类媒体数据。
然而这些数据由于数据量庞大,在存储空间和传输带宽有限的情况下,这些数据的存储和传输存在瓶颈。
为此,人们通常要对这些媒体数据作压缩处理,以提高存储和传输效率,降低设备成本。
在保证听觉和视觉质量的前提下,人们往往希望能够以尽量少的空间和尽量小的比特率来存储和传输各种声音、图像数据。
然而在相同的压缩编码技术下,信息理论概念下的编码质量和压缩比往往是一对矛盾。
因此如何建立新的语音、图像和视频的分析模型,从而改进压缩编码算法长久以来一直是信号处理领域的研究热点。
图像视频通信的发展长期以来落后于语音通信。
而在多媒体数据通信的发展趋势下,图像压缩编码技术的研究和应用越来越引人瞩目。
人们对图像压缩的研究兴趣可以追溯到62年前。
最初在这一领域研究的焦点集中在如何建立一种模拟的方法以便减少视频传输所需的带宽。
这一过程称为带宽压缩。
数字计算机的出现和后来先进的集成电路的发展,导致了这方面研究的重点从模拟方式转移到数字压缩方法上来。
随着几种关键性的国际图像压缩标准的正式采用,这一领域在实际应用方面有了重大的发展。
当前,图像压缩被认为是一种“开放技术”,已经被广泛用于现代通信业务、工程应用、媒体传播、医疗服务和商务应用等诸多领域中。
对声音、图像、视频等多媒体信息的压缩有两条思路,要么采用成熟的通用数据压缩技术进行压缩,要么根据媒体信息的特性设计新的压缩方法。
然而在通用数据压缩领域技术已经相当的成熟,很难有大的突破,与此同时,多媒体信息日益成为主流信息形态,数据压缩技术特别是专用于图像、音频、视频的数据压缩技术还有相当大的发展空间——毕竟,人们对信息数量和信息质量的追求是永无止境。
随着电子信息产业的发展的牵引和相关科学技术进步的推动,科技界特别是许多跨国公司对于研究更高效图像压缩技术的热情越来越高涨,观念也在不断更新,新一轮的技术竞争也愈演愈烈。
今天,从事基于信源模型的图像编码的数据压缩课题的研究也正是在此思潮的引领之下开展的,希望通过笔者的努力能为这一技术的发展做出应有的贡献。
1.2课题研究的现状
严格意义上的数据压缩起源于人们对概率的认识。
当我们对文字信息进行编码时,如果为出现概率较高的字母赋予较短的编码,为出现概率较低的字母赋予较长的编码,总的编码长度就能缩短不少。
信息论之父C.E.Shannon第一次用数学语言阐明了概率与信息冗余度的关系。
在1948年发表的论文“通信的数学理论(AMathematicalTheoryofCommunication)[2]中,Shannon指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。
Shannon借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式。
这篇伟大的论文后来被誉为信息论的开山之作,信息熵也奠定了所有数据压缩算法的理论基础。
从本质上讲,数据压缩的目的就是要消除信息中的冗余,而信息熵及相关的定理恰恰用数学手段精确地描述了信息冗余的程度。
利用信息熵公式,人们可以计算出信息编码的极限,即在一定的概率模型下,无损压缩的编码长度不可能小于信息熵公式给出的结果。
1948年,Shannon在提出信息熵理论的同时也给出了一种简单的编码方法——Shannon编码。
随着科学技术的不断进步,出现了Huffman编码[3]。
编码效率高,运算速度快,实现方式灵活,从20世纪60年代至今,在数据压缩领域得到了广泛的应用。
不过,Huffman编码所得的编码长度只是对信息熵计算结果的一种近似,还无法真正逼近信息熵的极限。
正因为如此,现代压缩技术通常只将Huffman视作最终的编码手段,而非数据压缩算法的全部。
1976年,J.Rissanen提出了一种可以成功地逼近信息熵极限的编码方法——算术编码[3]。
之后,人们又将算术编码与J.G.Cleary和I.H.Witten于1984年提出的部分匹配预测模型(PPM)相结合,开发出了压缩效果近乎完美的算法。
对于无损压缩而言,PPM模型与算术编码相结合,已经可以最大程度地逼近信息熵的极限。
看起来,压缩技术的发展可以到此为止了。
不幸的是,事情往往不像想象中的那样简单:
算术编码虽然可以获得最短的编码长度,但其本身的复杂性也使得算术编码的任何具体实现在运行时都慢如蜗牛。
即使在摩尔定律大行其道,CPU速度日新月异的今天,算术编码程序的运行速度也很难满足日常应用的需求。
后来又相继出现了LZ77、LZ78及LZW。
使得压缩技术又上了一个大的台阶。
伴随着科技的发展,社会的进步,人们逐渐认识到多媒体的数据压缩成为一项亟待解决的技术。
70年代末80年代初,人们逐渐意识到,对于多数灰度或是彩色图像乃至声音文件,没有必要忠实地保留其所有信息,在允许一定的精度损失的情况下,可以实现更为有效的压缩方法。
到80年代末,许多人已经在这一领域取得了不小的收获,设计出了一批在压缩效果上让人惊讶不已的声音和图像压缩算法。
在此基础上,国际标准化组织(ISO)和CCITT联合组成了两个委员会。
委员会的名字我们大概都已经非常熟悉了:
静态图像联合专家小组(JPEG)和动态图
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 信源 模型 图像 编码 数据压缩 算法 研究 实现