数字图像处理技术研究报告现状及其发展方向.docx
- 文档编号:8599281
- 上传时间:2023-02-01
- 格式:DOCX
- 页数:11
- 大小:51.50KB
数字图像处理技术研究报告现状及其发展方向.docx
《数字图像处理技术研究报告现状及其发展方向.docx》由会员分享,可在线阅读,更多相关《数字图像处理技术研究报告现状及其发展方向.docx(11页珍藏版)》请在冰豆网上搜索。
数字图像处理技术研究报告现状及其发展方向
目录
绪论·······························································1
1数字图像处理技术·················································1
1.1数字图像处理的主要特点········································1
1.2数字图像处理的优点············································2
1.3数字图像处理过程··············································3
2数字图像处理的研究现状···········································4
2.1数字图像的采集与数字化········································4
2.2图像压缩编码··················································5
2.3图像增强与恢复················································8
2.4图像分割······················································9
2.5图像分析·····················································10
3数字图像处理技术的发展方向·······································13
参考文献···························································14
绪论
图像处理技术基本可以分成两大类:
模拟图像处理和数字图像处理。
数字图像处理是指将图像信号转换成数字信号并利用计算机进行处理的过程。
其优点是处理精度高,处理内容丰富,可进行复杂的非线性处理,有灵活的变通能力,一般来说只要改变软件就可以改变处理内容。
困难主要在处理速度上,特别是进行复杂的处理。
数字图像处理技术主要包括如下内容:
几何处理、算术处理、图像增强、图像复原、图像重建、图像编码、图像识别、图像理解。
数字图像处理技术的发展涉及信息科学、计算机科学、数学、物理学以及生物学等学科,因此数理及相关的边缘学科对图像处理科学的发展有越来越大的影响。
数字图像处理的早期应用是对宇宙飞船发回的图像所进行的各种处理。
到了70年代,图像处理技术的应用迅速从宇航领域扩展到生物医学、信息科学、资源环境科学、天文学、物理学、工业、农业、国防、教育、艺术等各个领域与行业,对经济、军事、文化及人们的日常生活产生重大的影响。
数字图像处理技术发展速度快、应用范围广的主要原因有两个。
最初由于数字图像处理的数据量非常庞大,而计算机运行处理速度相对较慢,这就限制了数字图像处理的发展。
现在计算机的计算能力迅速提高,运行速度大大提高,价格迅速下降,图像处理设备从中、小型计算机迅速过渡到个人计算机,为图像处理在各个领域的应用准备了条件。
第二个原因是由于视觉是人类感知外部世界最重要的手段。
据统计,在人类获取的信息中,视觉信息占60%,而图像正是人类获取信息的主要途径,因此,和视觉紧密相关的数字图像处理技术的潜在应用范围自然十分广阔。
近年来,数字图像处理技术日趋成熟,它广泛应用于空间探测、遥感、生物医学、人工智能以及工业检测等许多领域,并促使这些学科产生了新的发展。
1数字图像处理技术
1.1数字图像处理的主要特点
(1>目前数字图像处理的信息大多是二维信息,处理信息量很大,因此对计算机的计算速度、存储容量等要求较高。
(2>数字图像处理占用的频带较宽,与语言信息相比,占用的频带要大几个数量级。
所以在成像、传输、存储、处理、显示等各个环节的实现上,技术难度较大,成本也高,这就对频带压缩技术提出了更高的要求。
(3>数字图像中各个像素是不独立的,其相关性大。
因此,图像处理中信息压缩的潜力很大。
(4>由于图像是三维景物的二维投影,一幅图像本身不具备复现三维景物的全部几何信息的能力,很显然三维景物背后部分信息在二维图像画面上是反映不出来的。
因此,要分析和理解三维景物必须作合适的假定或附加新的测量。
在理解三维景物时需要知识导引,这也是人工智能中正在致力解决的知识工程问题。
(5>数字图像处理后的图像一般是给人观察和评价的,因此受人的因素影响较大。
由于人的视觉系统很复杂,受环境条件、视觉性能、人的情绪爱好以及知识状况影响很大,作为图像质量的评价还有待进一步深入的研究。
。
另一方面,计算机视觉是模仿人的视觉,人的感知机理必然影响着计算机视觉的研究,这些都是心理学和神经心理学正在着力研究的课题。
1.2数字图像处理的优点
(1>再现性好数字图像处理与模拟图像处理的根本不同在于,它不会因图像的存储、传输或复制等一系列变换操作而导致图像质量的退化,只要图像在数字化时准确地表现了原稿,则数字图像处理过程始终能保持图像的再现。
(2>处理精度高按目前的技术,几乎可将一幅模拟图像数字化为任意大小的二维数组,现代扫描仪可以把每个像素的灰度等级量化为16位甚至更高,这意味着图像的数字化精度可以达到满足任一应用需求。
。
(3>适用面宽图像可以来自多种信息源,从图像反映的客观实体尺度看,可以小到电子显微镜图像,大到航空照片、遥感图像甚至天文望远镜图像。
这些来自不同信息源的图像只要被变换为数字编码形式后,均是用二维数组表示的灰度图像组合而成,因而均可用计算机来处理。
(4>灵活性高数字图像处理不仅能完成线性运算,而且能实现非线性处理,即凡是可以用数学公式或逻辑关系来表达的一切运算均可用数字图像处理实现。
1.3数字图像处理过程
由于数字图像处理的灵活性和方便性,所以数字图像处理已成为图像处理的主流。
常见的数字图像处理有:
图像的采集、数字化、编码、增强、恢复、变换、压缩、存储、传输、分析、识别、分割等,其处理流程如图1所示。
图1数字图像处理流图
(1>图像数字化通过取样和量化将一个以自然形式存在的图像变换为适合计算机处理的数字形式,图像在计算机内部被表示为一个数字矩阵,矩阵中每一元素称为像素。
(2>图像的编码编码的目的是压缩图像的信息量(但图像质量几乎不变>,以满足传输和存储的要求,为此,可以采用模拟处理技术,再通过模-数转换得到编码,不过多数是采用数字编码技术,其编码方法可以对图像逐点进行加工,也可以对图像施加某种变换或基于区域、特征进行编码。
(3>图像增强图像增强目的是使图像清晰或将其转换为更适合人或机器分析的形式,常用的图像增强方法有:
灰度等级直方图处理、干扰抵制、边缘锐化、伪彩色处理。
(4>图像恢复其目的是除去或减少在获得图像过程中因各种原因产生的退化,可能是光学系统的像差或离焦、摄像系统与被摄物之间的相对运动、电子或光学系统的噪声和介于摄像系统与被摄像物间的大气湍流。
(5>图像分割将图像划分为一些互不重叠的区域,每一区域是像素的一个连续集,通常采用把像素分入特定区域的区域法和寻求区域之间边界的境界法,这2种方法都可以利用图像的纹理特性实现图像分割。
(6>图像分析从图像中抽取某些有用的度量、数据或信息,其目的是得到某种数值结果。
图像分析的内容和模式识别、人工智能的研究领域有交叉,但图像分析与典型的模式识别有区别。
图像分析需要用图像分割方法抽取出图像的特征,然后对图像进行符号化的描述,这种描述不仅能对图像中是否存在某一特定对象作出回答,还能对图像内容作出详细描述。
图像处理的各个内容是互相有联系的,一个实用的图像处理系统往往结合几种图像处理技术才能得到所需要的结果,图像数字化是将一个图像变换为适合计算机处理的形式的第1步,图像编码可用以传输和存储图像。
。
图像增强和复原可以是图像处理的最后目的,也可以是为进一步的处理作准备。
通过图像分割得出的图像特征可以作为最后结果,也可以作为下一步图像分析的基础。
2数字图像处理的研究现状
2.1数字图像的采集与数字化
图像的采集是数字图像处理的第1步,采集并不局限于对人眼视觉功能的模仿,更是对人类认识、分析手段的拓展。
在医学、天文学、自动字体识别、机器视觉、军事识别、指纹自动处理和血样分类处理等多个方面都不同程度地运用了图像提取技术。
图像提取技术源自于电影和视频产品的发展。
其中,最具影响力的研究是由Porter和Duff提出的通道概念,对图像提取技术的离散特性进行了规范,为这一研究领域奠定了基础,使其成为图像处理领域一个较独立的重要分支。
20世纪60年代,由于当时的图像提取技术还未成形,人们主要依赖于用拍摄技巧弥补后期制作的不足。
随着当时计算机应用的发展,图像处理技术获得了更加广阔的发展空间,各种各样的处理技术和方法也相应而生。
如四元组像素的提出以及Blinn对计算机领域所运用到的像素进行的全面诠释。
20世纪90年代初期,学者们逐渐认识到要实现信息的精确提取是非常困难和费时的,对于稍复杂的图像或视频,其代价十分巨大。
所以学者们开始考虑借助数学和概率统计学的原理来寻求更优解,而不再强调最优解。
图像提取技术的发展过程经历了以下4个发展阶段:
(1>萌芽阶段通过拍摄时的布景实现提取条件。
(2>初期阶段以四元像素和数字化为基础,建立了独立的分支学科
(3>飞跃阶段以概率统计学原理为基础的提取。
(4>分化阶段认识到视频中帧与帧之间存在相关性,产生了专门用于视频提取的方案。
但由于自然色彩分布的复杂性,至今没有被广泛认可的模型,也没有系统的、统一的评价标准。
所以说,图像提取技术的成熟还有待时日,并依赖于其它学科及计算机硬件技术的发展。
由于图像提取涉及的学科领域比较广泛,学者们对待该问题的研究角度和出发点各不相同,目前已有的概念和模型有:
Porter&Duff模型、Blinn模型、Knockout模型、Ruzon&Tomasi模型、Bayesian模型、Poisson模型、Chuang&Agarwala模型、YinLi&JianSun模型。
比较分析上述模型、可以发现:
Porter&Duff模型、Blinn模型将图像提取问题规范化,是后续研究的重要基础;Knockout模型是对Porter&Duff模型、Blinn模型的有益扩展,使之实用意义更大,在实际运用中效率更高。
虽然Ruzon&Tomasi模型、Bayesian模型、Poisson模型采用的具体概率统计方法各异,但这些模型都是先对图像进行初始化,生成Trimap——前景、背景、交界区域,研究对象都是交界区域的α值。
Chuang&Agarwa2la模型、YinLi&JianSun模型以视频提取为研究目的,引人了帧间信息相关性的概念,实现了视频的半自动提取。
目前为止,图像提取技术根据需求的不同出现了2种研究思路:
一种更注重提高α值的精确度,追求精确完美的效果;另一种则更注重提高提取的效率、实时性及自动化程度。
目前,图像提取技术的研究活动主要集中在以下5个方面:
(1>拍摄设备、拍摄方法及技巧;(2>分割技术;(3>人机交互操作接口;(4>面向对象的提取技术;(5>前景与背景间交界区域估计模型。
2.2图像压缩编码
作为通信、介质存贮、数据发送、多媒体计算机等技术的关键环节,图像压缩编码算法的研究是信息技术中最活跃的研究领域之一。
尤其是进入21世纪以后,电子技术和通信技术的发展使可视电话、会议电视、数字电视、高清晰度电视、多媒体计算机、信息高速公路等的生产和建立成为可能。
在这一背景下,探索高效图像压缩编码算法无疑将成为主要任务之一,对其研究也将成为国际公认的热点之一。
为了使有限的符号表达更多的信息量,图像压缩既非常必要,也有可能,因此产生了各种各样的图像压缩方法。
图像压缩编码用尽可能少的数据表示信源发出的图像信号,以减少容纳给定消息集合的信号空间。
通过对图像数据的压缩减少数据占用的存储空间,从而减少传输图像数据所需的时间和信道带宽。
图2为图像压缩系统模型,图像压缩编码算法的研究历程可分为如下2个阶段。
图2图像压缩系统模型
(1>第1代图像压缩编码阶段(1985年以前>。
图像压缩编码算法的研究起源于传统的数据压缩理论,有些学者认为始于18世纪末Sheppards所做的“实数舍入为十进制数”的研究,也有人认为19世纪末研制的莫尔斯代码是数据压缩的第一次尝试。
1939年Dudley研制了声码器,他把声音频谱的能量划分为有限数目的频带,并且在每个频带内传输相应的能级,因此能够达到较高的压缩。
比较系统的研究始于20世纪40年代初形成的信息论,尽管当时数字计算机尚未出现,但其研究与当今数字计算机所使用的压缩技术有着密切的联系,许多算法,如Huffman编码等仍有很大的应用价值。
近年来,由于模式识别、图像处理、计算机视觉等技术的发展,促进了数据压缩的研究。
1997年以前基于符号频率统计的Huffman编码具有良好的压缩性能,一直占据重要的地位,并不断有基于其改进的算法提出。
1977年以色列科学家JacobZiv和Abra2hamLempel提出了不同于以往的基于字典的压缩编码算法LZ77,1978年又推出了改进算法LZ78,把无损压缩编码算法的研究推向了一个全新的阶段。
近年来,随着神经网络理论的兴起,有人采用BP网进行非线性预测的尝试,取得了较好的效果。
自1969年在美国举行首届“图像编码会议”以来,图像压缩编码算法的研究有了很大进展,其中变换压缩编码与量化压缩编码是研究热点。
(2>第2代图像压缩编码阶段(1985年以后>。
为了克服第1代图像压缩编码存在的压缩比小、图像复原质量不理想等弱点,1985年Kunt等人充分利用人眼视觉特性提出了第2代图像压缩编码的概念。
20世纪80年代中后期,人们相继提出了在多个分辨率下表示图像的方案,主要方法有子带压缩编码、金字塔压缩编码等,利用不同类型的线性滤波器,将图像分解到不同的频带中,然后对不同频带的系数采用不同的压缩编码方法。
这些方法均在不同程度上有如下优点:
多分辨率的信号表示有利于图形信号的渐进式传输;不同分辨率的信号占用不同的频带,便于引入视觉特性。
1988年,Barnsley和Sloan共同提出了分形图像编码压缩方案,该方案利用图像中固有的自相似性来构造一个紧缩变换,并使原图像成为该紧缩变换的吸引子,编码时只需存储变化的参数,解码时需要利用该变化对任一幅图像不断进行迭代变换。
此方案具有思路新颖、压缩潜力大、解码分辨率无关性等特点,是一种很有潜力的编码方法。
1987年,Mallat首次巧妙地将计算机视觉领域内的多尺度分析思想引入到小波变换中,统一了在此之前的各种小波的构造方法。
之后,他又研究了小波变换的离散形式,并将相应的算法应用于图像的分解与重构中,为随后的小波图像压缩编码奠定了基础。
进入90年代,又取得了一系列图像压缩编码研究的阶段性新成果。
其中EZW编码算法、SPIHT编码算法被认为是目前世界上比较先进的图压缩编码算法,这2种算法均具有结构简单、无需任何训练、支持多码率、图像复原质量较理想等优点,但同时又都不同程度地存在算法时间复杂度和空间复杂度过高的弱点。
而小波变换的图像压缩编码算法已成为目前图像压缩研究领域的一个主要方向。
小波变换是20世纪80年代后期发展起来的一种新的信息处理方法,因其本质是多分辨分析信号,在时域和频域都具有分辨率,对高频分量采用逐渐精细的时域或空域步长,可以聚焦到分析对象的任意细节,对于剧烈变换的边缘,比常规的傅里叶变换具有更好的适应性,故特别适用于分析非平稳信号。
2.3图像增强与恢复
图像增强是按照特定的要求突出一幅图像中的某些信息,同时削弱或去除某些不需要的信息处理方法,其主要目的是使处理后的图像对某种特定的应用来说,以原来图像更适用,它是为了某种应用目的去改善图像质量,使图像更适合于人的视觉特性或机器的识别系统。
目前增强方法主要有直方图修改处理、图像平滑化处理、图像尖锐化处理及彩色处理技术等,由于各种图像增强算法的特点不同,对图像增强的侧重点也不同。
在对图像进行处理之前,首先分析不同图像增强方法的优缺点,再对具体图像问题进行具体分析,然后选择几种增强方法结合使用,也许就可能达到预期的增强效果。
图像在获取、传输和存储过程中由于受多种原因如模糊、失真、噪声等的影响,会造成图像质量的下降,即图像的退化。
引起图像退化的原因很多,在图像的获取(数字化过程>和传输过程,如使用CCD摄像机获取图像,光照程度和传感器温度是造成图像退化的主要因素。
图像在传输过程中主要由于所用的传输信道的干扰受到噪声污染,也会造成图像质量的下降。
图像恢复技术以获取视觉质量得到某种程度改善为目的,根据指定的图像退化模型来对在某种情况下退化或降质了的退化图像进行恢复,以获取到原始的、未经退化的原始图像。
图像恢复首先要建立图像退化/复原模型,当不知道图像本身的性质时,可以建立退化源的数学模型,然后施行恢复算法除去或减少退化源的影响。
当有了关于图像本身的先验知识时,模型以建立原始图像的模型,然后在观测到的退化图像中通过检测原始图像而复原图像。
常见的图像恢复模型有4种:
通用图像模型,光学系统模型,摄影过程模型,离散图像恢复模型。
在成像系统中一个通常的缺点是在传感器和显示器系统中存在有害的非线性,传感器信号的处理后修正和显示器信号的处理前修正可以充分减少退化。
这种恢复处理实现起来通常相对简单,最常见的图像恢复任务是为了补偿图像模糊和消除噪声影响而进行的空间图像恢复。
目前通常有以下恢复技术:
传感器和显示点的非线性修正,连续图像的空间滤波恢复,伪逆空间图像恢复,SVD伪逆空间图像恢复,统计学估计空间图像恢复,约束图像恢复,盲目图像恢复。
2.4图像分割
图像分割是图像处理中的一项关键技术,自20世纪70年代起一直受到人们高度重视,并在医学、工业、军事等领域得到了广泛应用。
常用的分割方法主要分为基于区域的分割方法和基于边缘的分割方法2类。
此外,随着各学科的发展出现了一些结合某种特定理论的分割方法。
2.4.1基于区域的分割方法
这类方法的基本思想是将图像分割成若干不重叠的区域,使各区域内部特征的相似性大于区域间特征的相似性,各区域内像素都满足基于灰度、纹理等特征的某种相似性准则。
其常见的方法:
阈值法;区域生长法;分裂合并法。
2.4.2基于边缘的分割方法
边缘的主要表现为图像局部特征的不连续性,该方法首先检出图像中局部特性的不连续性或突变性,然后将它们连成边界,这些边界把图像分成不同的区域。
传统的图像边缘检测方法大多可归结为图像高频分量的增强过程,微分运算自然成为边缘检测与提取的主要手段。
常用的边缘检测算子有以下几种:
Robert算子、Sobel算子、Pre2witt算子、Canny算子和拉普拉斯算子。
微分算子法的优点是计算简单、速度较快,缺点是对噪声的干扰都比较敏感。
边界跟踪法的基本思想是从梯度图中的一边缘点出发,依次搜索并连接相邻边缘点,从而实现对图像边界的检测,先确定搜索起点,接着采取合适的数据结构和搜索机理,并在已发现的边界点上确定新的边界点,最后按照搜索的终结准则和终结条件完成边界的跟踪,从而实现边缘的提取。
图像分割至今尚无通用的自身理论,随着各学科的不断发展,提出了许多新理论和新方法,于是出现了许多与一些特定理论、方法相结合的图像分割技术。
遗传算法最初由美国Michigan大学的Holland教授于1975年提出的,其基本思想是将问题域中的可能解视为群体的一个个体或染色体,并将每一个体编码成符号串形式,对种群反复进行选择、交叉和变异操作,根据预定的目标适应度函数对每个个体进行评价,适应值高的染色体被选中概率较高,以全局并行搜索方式来搜索优化群体中的最优个体。
该方法具有全局搜索能力,是一种迭代式的优化算法,在分割图像时常用来帮助确定最佳分割阈值。
小波变换是在傅里叶分析基础上发展起来的,具有良好的时域和频域局部化特性,而且还具有多分辨分析的特点。
基于小波分析的边缘检测方法的突出优点是它的多尺度性,图像的每个尺度的小波变换都提供了一定的边缘信息。
小尺度下,图像的边缘细节信息丰富,边缘定位精度较高,但易受噪声干扰,大尺度下,边缘稳定,抗噪性好,但定位精度差。
利用小波的多尺度性可实现在大尺度下抑制噪声,可靠地识别边缘,在小尺度下精确定位。
Snake模型最初是由Kass等人在1987年第1届计算机国际视觉会议上提出的,其基本思想是首先通过人的识别能力,在图像中目标边界附近确定初始轮廓线,然后对曲线进行能量最小化变形,使其锁定在待分割目标的边界上。
Snake算法能够有效地利用图像局部与整体的信息,实现对边界的准确定位,具有良好的提取和跟踪特定区域内目标轮廓的能力。
由于图像的千变万化,在实际应用中,通常将多种分割算法有效地结合在一起使用以获得更好的分割效果。
2.5图像分析
图像分析从图像中抽取某些有用的度量、数据或信息,目的是得到某种数值结果,它主要是提供关于被分析图像的一种描述,既要利用模式识别技术,又要利用关于图像内容的知识库,即人工智能中关于知识表达方面的内容。
图像分析需要用图像分割方法抽取出图像的特征,然后对图像进行符号化的描述,这种描述不仅对图像中是否存在某一特定对象作出回答,还要对图像内容作出详细描述。
图像分割综述已上述所述,现分别从描绘和纹理分析这2个方面加以阐述。
2.5.1图像描绘
经过图像分割后,得到的是若干区域和边界。
为了有效地识别目标,必须要描述这些目标即提供它们的有用信息和相互关系,通常有区域内部描述、区域边界描述和关系描述。
(1>区域内部描述
(i>矩描述子该描述子是基于帕普里斯(Papoulis>唯一性定理。
MKHu在1961年首先提出不变矩的概念,并将几何矩用于图像描述。
MRTeague在1979年基于正交多项式理论提出的Zernike矩,从噪声灵敏度、信息冗余度和图像描述能力等方面来说都具有很好的性能。
YLSheng和LXShen于1994年提出了正交傅里叶梅林矩,平子良等定义了一种新的图像矩——切比雪夫图像矩描述图像,这种矩可以得到比较理想的描述效果。
矩方法是一种经典的区域形状分析方法,但于它的计算量较大且受噪声干扰,缺乏实用价值。
(ii>拓扑描述子带有孔的图形,如果把区域中的孔洞数作为拓扑描述子,显然这个性质不受伸长或旋转变换的影响。
但是如果撕裂或折叠时,孔洞数就要变化了,区域描述的另一种有用的拓扑特性是连接部分的个数。
(iii>投影与截痕图像在任意方向上的投影可以定义为该图像诸像素在该方向上对应投影之和,和投影相类似的另一种描述图像中的对象方向特性的参数是截痕,截痕和投影有着同样的用途。
(ⅳ>模板匹配
(2>区域的外形边界描述方法
(i>傅里叶描述子当一个区域边界上的点已被确定时,可以从这些点中提取信息。
这些信息就可以用来鉴别不同区域的形状,Kauppien比较了各种典型形状识别方法,实验表明基于物体轮廓坐标序列的傅里叶描述子具有最佳的形状识别性能。
通过连续型傅里叶变换代替离散傅里叶变换的计算方法,可以减少由于边界曲线等间距离散化引起的误差,而且可以大大减少傅里叶变换计算的工作量。
(ii>小波轮廓描述子小波变换是一一对应的映射,所以一个给定的轮廓对应一组唯一的描述符。
小波轮廓描述符比较适合描述轮廓的基本特征并用来进行基于轮廓的图像检索。
从描述精度、稳
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数字图像 处理 技术研究 报告 现状 及其 发展方向