视频增强技术综述20.docx
- 文档编号:30429552
- 上传时间:2023-08-14
- 格式:DOCX
- 页数:20
- 大小:48.37KB
视频增强技术综述20.docx
《视频增强技术综述20.docx》由会员分享,可在线阅读,更多相关《视频增强技术综述20.docx(20页珍藏版)》请在冰豆网上搜索。
视频增强技术综述20
视频增强技术综述
概述
图像超分辨率(superresoulution,SR)指利用一幅或者多幅低分辨率(lowresoulution,LR)图像,通过相应的算法来获得一幅清晰的高分辨率(highresoulution,HR)图像.HR意味着图像具有高象素密度,可以提供更多的细节,这些细节往往在应用中起到关键作用.要获得高分辨率图像,最直接的办法是采用高分辨率图像传感器,但由于传感器和光学器件制造工艺和成本的限制,在很多场合和大规模部署中很难实现。
低分辨率的图像包含的细节信息较少,但我们可以得到一系列低分辨率的图像,这些图像包含的部分细节信息各有不同,能够相互补充。
通过这一系列低分辨的图像,经过一定的处理,可以得到一幅分辨率较高、包含信息较多的图像。
这个处理过程就是超分辨率重建。
超分辨率重建的核心思想就是用时间带宽(获取同一场景的多帧图像序列)换取空间分辨率,实现时间分辨率向空间分辨率的转换。
因此,利用现有的设备,通过超分辨率技术获取高分辨率图像具有重要的现实意义。
视频的超分辨率增强是指融合来自相同动态场景的多个低分辨率视频序列的信息,去重构一个高时空分辨率的视频序列。
可想而知,视频超分辨率包括时间超分辨率和空间超分辨率。
视频中某些事件发生变化比较快,这样就需要用所谓高速(高帧率)的摄像机来采样,如果使用普通帧率的摄像机,那么在时间上就会有一些细节信息的丢失。
视频的时间超分辨率就是要恢复这些丢失的时间上的细节信息,而视频空间超分辨率就是通常人们提到的图像超分辨率复原。
摄像机在时间和空间上的分辨率能力是有限的。
空间分辨率取决于摄像机光学传感器的空间密度及其本身引入的模糊误差,这些因素限制了图像中被观察到的物体或特征的最小空间尺寸;时间分辨率取决于摄像机的帧率和曝光时间,这就限制了视频序列中能被观察到的动态事件的最大变化速度。
比摄像机帧率发生更快的动态事件在记录下来的视频序列中是不可见或者不正确的,如在网球比赛的视频中是不可能观察到高速运动的网球的全部运动和状态的。
有两类非常典型的由高速运动引起的可视化效果:
①运动模糊,它是摄像机的曝光时间引起的,如高速运动的网球所带有的尾迹;②运动混淆,它是由于帧率限制的时间采样引起的,如一个小球以正弦波形向前运动,摄像机的帧率如果与小球正弦运动周期可比或相等,记录下的视频上就将观察到小球以很长的周期正弦运动或直线运动,这类似于一维信号的欠采样。
这两种视频效果都不能依靠视频的慢速播放而消除,甚至使用复杂的时间插值算法来增加帧率也收效甚微,这是因为包含在单个视频序列中的信息是不足以恢复高速动态事件中丢失的信息。
多个视频序列提供了附加的动态时空场景采样,这样就可融合这些信息去弥补丢失的信息,产生一个高时空分辨率的视频序列。
超分辨率的纵向综述
历史演变
图像超分辨率的概念和方法最早由Harris和Goodma[1,2]于20世纪60年代提出;随后有许多人对其进行了研究,并相继提出了各种方法,如长椭球波函数法、线性外推法、叠加正弦模板法。
以上这些方法虽然能给出令人印象深刻的仿真结果,但在实际应用中并没有获得理想的结果。
80年代末之后,人们在超分辨率图像复原方法研究上取得了突破性的进展。
Hunt等人不仅在理论上说明了超分辨率存在的可能性[3],而且提出和发展了许多有实用价值的方法,如能量连续降减法[4]、Bayesian分析法[5,6]和凸集投影法[7]。
超分辨率图像增强逐渐成为人们研究的热点,人们从多个角度对其进行了深入的研究。
20世纪90年代初Irani和Peleg[8,9]将经过相似性变换和仿射变换的图像进行超分辨率强,Mann和Picard[10]又研究了经过投影变换的图像,其他的研究者还研究了非参数运动模型和区域追踪[11]。
在成像建模方面,不同的图像污染模型被人们使用。
Irani和Peleg的图像污染模型包括光学模糊和空间量化误差,Bascle等[11]将运动模糊也包含进来,Cheeseman等[12]从Vidicon相机的基准调平中建立成像模型。
人们在统计先验知识或调整规则的使用上也采取了不同的方法。
Cheeseman等使用了基于高斯平滑先验知识的MAP估计器来增强卫星遥感图像;Schultz和Stevenson改进了Bayesian方法,通过在边缘响应上使用带Huber惩罚函数的MRF先验知识来比较单幅和多幅图像的增强方法;Capel和Zisserman也比较了ML和MPA估计器对视频马赛克效果的超分辨率增强[13];Zomet和Peleg应用Irani和Peleg的误差反向投影方法来增强他们使用管道投影方法获得的视频马赛克效果[14];Rudin等应用了重采样和去模糊方法,在去模糊算法中使用了总变差规则[15]。
利用序列和多幅图像进行超分辨率图像的增强也成为人们研究的热点,因为它充分利用了不同幅图像之间类似而又不同的信息,所以其超分辨率增强能力好于利用单幅图像进行增强所获得的超分辨率能力。
除以上所提到的,还有很多增加图像空间分辨率的方法被提出,这些方法多是融合子像素替换得到的多个低分辨率图像的信息。
然而,这些方法通常是假设静态场景,而没有关注在动态场景中有限的时间分辨率。
随着视频应用需求的发展,视频分辨率增强逐渐被人们关注。
视频区别于静态图像的最重要的特征,就在于其时间特性以及时空联合特性。
通常视频摄像机采集帧率是50Hz~60Hz,电影被录制和播放在24Hz,25Hz或30Hz,而PC的显示器的图像刷新频率在60Hz~120Hz之间。
这样,如果普通广播电视视频要在PC显示器上显示的话,必须在时间上进行插值处理。
一个好的运动补偿插值算法能够沿着运动轨迹将运动物体插值到当时正确的位置上,从而获得高质量的视频效果。
空间维和时间维是非常不同的,但又是相关的,这导致了视频在空间和时间上的折中。
时间分辨率的大幅度提高,通常是以空间分辨率的降低为代价的,反之亦然。
而这在传统的基于图像的空间超分辨率应用中是不存在的,这也带来了一些新的视频应用。
比如,靠增加时间分辨率来处理一些对空间分辨率的人为影响(如运动模糊),融合不同时空分辨率的输入序列(如NTSV,PAL以及高质量的静态图像)去产生一段高质量的视频序列,等等。
所以应该考虑一个统一的框架,融合来自时空未对准而获得的动态场景的多个视频序列信息,来增加视频的时空分辨率,这将提高动态事件的可视化能力,尤其是高速动态事件的表示能力。
这些已经开始成为视频超分辨率的研究热点。
目前状况
近年来,伴随着数字视频采集设备的普及,人们对超分辨率重建技术的研究不再局限于静态图像,而是向视频领域发展,提出了视频超分辨率。
单个视频的超分辨率重建是静态图像序列超分辨率重建的延伸和发展,其结合了滑动窗口模型和连续帧间的亚像素级互补信息[16]对每个视频帧进行超分辨率重建,从而重建出一个高空间分辨率的视频。
不少研究者已对单视频超分辨率展开了研究,并取得了不少的成果,包括得到了较好的视频帧间配准算法以及各种有效的空间超分辨率重建方法。
Borman等[17]提出了一种多帧同步超分辨率视频重构方法,该方法利用了时空平滑约束,获得了较好的重建效果。
Tom等[18]提出了一种迭代算法来增强视频的分辨率,这种算法的效果依赖于视频运动估计算法的效果。
JIANG[19]采用了一种光流场方法来准确估计视频帧之间图像信息的运动变化,同时提供了一个稳定有效的机制去检测和剔除会影响超分辨率重建效果的错误图像匹配。
就单视频超分辨率重建而言,相邻帧间亚像素级的冗余信息是有限的,因此限制了空间分辨率的重建倍数,同时单视频超分辨率重建不能解决因视频采集帧率低而引起的混叠现象。
因此一些研究者开始引入多视频超分辨率重建的思路,并对由此带来的各种复杂科学问题进行研究[20,21]。
Stein等[22]人利用2台计算机时钟分别标定目标质心,实现了多视频时间上的配准,但配准精度需要进一步提高。
Sharma等[23]人在已实现多视频时间配准的前提下,实现了首帧图像的配准和序列内帧间图像的配准。
DanielHazen等[24]人提出了一种多视频超分辨率重建方法,该方法可应用于多视频监控和多视频压缩方面。
Shechtman,Caspi和Irani[25,26]共同提出了基于特征的多视频时空配准算法,将时空信息作为一个整体同时计算。
他们还提出了基于区域的方法,将高斯金字塔模型推广到视频序列图像上。
目前,国内外对多视频的超分辨率重建技术研究还处于初级阶段,从能够查阅到的参考文献来看,研究者较少。
因此,还需要各国研究者们对其进行不断的探索。
未来趋向
视频超分辨率重建是近年来计算机视觉和图像处理等领域的一个研究热点,不仅在理论上具有重要意义,而且在实际应用中也有迫切需求。
例如在视频监控方面,银行、车站、机场、居民小区等都会设有多个监控摄像头,通过视频超分辨率技术,可以提高视频质量,方便观察可疑人物及可疑物品的细节信息;在交通管理方面,由于摄像头观测的场景较大,无法获取高速行驶的车辆及过往行人的细节信息,利用多视频超分辨率重建技术,可以对车辆违法或肇事过程进行更详细的重现,并有利于对大场景中的车牌或某个人物面部进行辨识等;在刑侦工作方面,对于案发现场获得的低分辨率视频(例如银行、街道等场合中摄像头拍摄到的视频),利用视频超分辨率技术,则能提高视频质量,获得犯罪人员的更多的体态信息和面部信息,帮助案件的侦破;在体育运动方面,常常会有许多高速运动的物体需要捕捉(例如高速运动的网球、乒乓球等),视频超分辨率重建可以帮助我们更清晰地观察这些动态事件的细节。
随着视频超分辨率相关理论和技术的发展,必将促进其在各个领域的深入应用,同时这又会进一步给研究工作提出更高的要求。
视频超分辨率增强在近年来已经成为国际上最为活跃的研究领域之一。
随着多媒体应用需求带来的进一步的视频应用,视频超分辨率增强技术将具有十分重要的应用价值和广阔的应用前景。
超分辨率的横向发展
总体分类
对超分辨率问题的求解,通常是构造一个前向关系模型,低分辨率图像和高分辨率图像之间的关系可以表述为
(1)
其中,p为图像序列帧数,
、
和
分别为待求的第j帧高分辨率图像、第k帧观察到的低分辨率图像和图像获取时的噪声,矩阵
、
和
分别为下采样矩阵、模糊矩阵和第
帧和第
帧之间运动矢量所构成的运动矩阵。
关于模糊矩阵和运动矩阵的先后关系,WANGZZ等指出,如果更换两者的位置会引起系统误差。
设H=DBM,则式
(1)即可简化为
(2)
求解式
(2)需要确定
,也就是求解或者确认式
(1)中的
、
、
和噪声
,这包括以下几个问题:
(1)运动估计,需要从观察到的低分辨率图像得到精确的运动矢量,并使用插值等方法去近似高分辨率图像的运动矢量;
(2)图像模糊的估计,通常需要对点扩散函数进行计算或假设;(3)噪声估计,噪声会极大地影响系统的求解,对于噪声的估计是非常重要的一步。
SR技术在早期研究中仅指基于多幅图像的还原方法,将基于单幅图像的增强称为插值,而目前多数文献中将这2种情况均称为超分辨率。
超分辨率技术自Tsai和Huang提出利用多帧图像序列来恢复高分辨率图像以来,至今已有二十余年,其间大量算法被提出。
目前,图像超分辨率研究可分为3个主要范畴:
基于插值、基于重建和基于学习的方法。
一.基于插值。
该方法是目前超分辨率研究中最直观的方法。
通过对该图像的多帧进行比较估计,得到它们之间的相对关系信息,以此获得高分辨率图像在非均匀间距采样点上的像素值。
然后通过非均匀插值的方法,经过一定的插值,就可以得到一幅高分辨率的图像。
当然,这样得到的图像会存在噪音、模糊等问题,因此可以通过图像恢复技术进行一定的修复。
二.基于重建。
该方法主要有配准和重建两个关键步骤。
在配准时,利用多帧低分辨的图像作为数据一致性的约束,这样可以获得其他低分辨率的图像和参考低分辨图像之间的亚像素精度的相对运动。
重建时,可以利用图像的先验知识对目标图像进行优化。
该方法常见的算法有迭代方向投影、最大后验概率、凸集投影等。
三.基于学习。
该方法的前提是认为低分辨率的图像完全拥有用于推理预测其所对应的高分辨率部分的信息。
这样就可以对一个低分辨率图像集进行训练,产生一个学习模型,这个模型可以计算出图像高频细节信息。
目前,常用的学习算法有Freeman等人提出的Example-based方法、Chang等人提出的基于邻域嵌入的方法等等。
各种方法及成果
一.基于插值的超分辨率技术
基于多帧图像插值技术的方法是超分辨率研究中最直观的方法。
这类方法首先估计各帧图像之间的相对运动信息,获得HR图像在非均匀间距采样点上的象素值,接着通过非均匀插值得到HR栅格上的象素值,最后采用图像恢复技术来去除模糊和降低噪声.典型的方法包括Rajan和Chaudhuri[27]通过分解、插值和融合3个步骤实现的通用插值方法;陶洪久等[28]提出的小波域的双线性插值;Lertrattanapanich和Bose[29]提出的使用基于光滑性约束的Delaunay三角化插值算法等.这类方法的优点是算法快速易行,适合并行计算,基本可以满足实时要求;但因为不能引入额外有用的高频信息,因而很难在SR图像中得到锐化的效果[30];同时,也没有考虑到LR图像的象素值并不是HR图像的理想采样值,而是对HR图像象素值的空间平均和卷积效应这一事实。
为了获得高质量的视频效果,高级的运动补偿插值技术是必要的。
目前,很多不同的算法用来在TV环境下进行视频格式的转换,而帧重复是一种常用的提高视频帧率的方法,被用在PC环境下的视频播放。
帧重复没有考虑场景的运动,所以在视频运动区域不可避免地出现短暂停顿以及视觉模糊现象。
一般说来,如果输入输出视频帧率相差低于30Hz,帧重复技术将导致运动停顿,而高于30Hz的话就会产生运动模糊。
一个好的运动补偿算法能够沿着运动轨迹将运动物体插值到当时正确的位置上,从而克服了帧重复技术遇到的问题,增加视频的时间分辨率,提高对高速动态事件的表示能力。
超分辨率问题可以在时域和空域上同时来做[31]。
Tom等[18]提出了一种迭代算法来增强视频图像的分辨率,这种算法的效果依赖于视频的运动估计算法的效果。
由于视频图像超分辨率的效果很大程度上依赖于连续帧之间的图像调整的修正,ZhongdingJiang[19]采用了一种光流场方法来准确估计图像对之间的运动变化,同时提供了一个稳定有效的机制去检测和剔除会影响超分辨率效果的错误图像匹配,通过对复杂动态视频序列的应用,表明该方法的有效性。
LertrattanapanichS.[32]通过计算一个投影模型的参数来估计相机的运动,进一步将相机运动考虑到超分辨率算法中来重构高分辨率图像。
BormanS.等[17]提出了一个多帧同步超分辨率视频重构方法,该方法利用了时空平滑约束,并给出了运动估计置信参数,抑制了运动估计误差,获得了较好的重构效果。
通过融合相同动态场景的多个低分辨率视频序列信息,ShechtmanE.等[31]提出了一种重构高时空分辨率视频序列的方法,该方法同时在空域和时域进行,通过一定的折中获得了较好的效果。
基于插值运动补偿的方法针对视频的时间超分辨率,通过运动补偿算法将运动物体插值到当时正确的位置上,从而弥补视频采样设备采样帧率的限制,生成高质量的视频。
空间维和时间维是非常不同的,但又是相关的,这导致了视频在空间和时间上的折中。
时间分辨率的大幅度提高通常以空间分辨率的降低为代价,反之亦然。
二.基于重建的超分辨率技术
1频域方法
通过在频率域消除频谱而改善图像的空间分辨率。
频域方法实际上是在频域内解决图像内插问题,其观察模型是基于傅里叶变换的移位特性。
虽然频域方法理论简单,运算复杂度低,很容易实现并行处理,具有直观的去变形超分辨率机制,主要方法列举如下:
(1)基于傅里叶变换的移位特性;(TsaiandHuang)
(2)考虑光学系统的点扩展函数和噪声的影响;(Tekalp)
(3)估计帧间整体平移参数的解算方法;(KaltenbackerandHardie)
(4)用递归最小二乘对对Tsai公式中的混叠矩阵进行求解。
由于频率域方法只能应用于全局平移和线性空间不变降质模型,并且它对空间域先验的能力不足,缺少灵活性,所以目前这类方法已经不再是研究的热点。
2空域方法
(1)迭代反投影方法(IterativeBackProjection,IBP);
Irani和Peleg[8,33]提出的迭代反向投影法是超分辨率图像复原中具有代表性的一种方法。
迭代反投影方法(IBP)首先用输出图像的一个初始估计作为当前结果,再将其投影到低分辨率观测图像上以获得低分辨率模拟图像。
通过低分辨率模拟图像与实际观测图像的差值不断更新当前估计。
IBP通过观测方程使超分辨率复原与观测数据匹配,但其超分辨率重建结果不唯一,而且难以引入先验约束。
Irani和Peleg证明了算法是收敛的。
算法简单、直观。
但是没有能够利用到先验知识,解不稳定、不惟一。
(2)凸影投影法(ProjectionontoConvexSet,POCS);
Stark和Oskoui[34]最早提出的凸集投影方法(POCS)可以简单而有效地求解超分辨率问题,通过把高分辨率图像的解空间上与一系列的代表高分辨率图像性质的约束集(如非负性、能量有界性、观测数据一致性、局部光滑性等)相交,可以得到一个更小的解空间。
从高分辨率图像空间的一点出发,不断利用迭代投影的方法寻找满足所有约束凸集的下一点,最终获得高分辨率图像的估计。
现在凸集投影方法是一类解决超分辨率图像复原问题的流行算法。
为了降低噪声和减少奇异性解,POCS应用约束条件将先验知识整合到计算中。
超分辨率图像解空间与一组凸形约束集合相交叉,而这组凸形约束集合代表了期望的超分辨率图像的一些特性,如正定、能量有界、数据可靠、平滑等,通过这些约束集合就可以得到简化的解空间。
POCS是指一种迭代过程,在给定超分辨率图像空间中任意一个点的前提下,可以定位一个能满足所有凸形约束集合条件的收敛解。
凸集投影法的特点是方法简单,能够充分利用先验知识,可利用任何成像模型方便地加入先验信息,也可以很好地保持高分辨率图像上的边缘和细节;但其缺点是解不唯一,收敛速度慢且稳定性不好,解依赖于初始估计,计算量大。
(3)最大后验概率估计(MaximumaPosteriori,MAP);
Schultz和Stevenson[6,35]提出的MAP方法是典型的概率论方法,他们把高分辨率图像和观察得到的低分辨率图像当作两个不同的随机过程。
最大后验概率估计方法将超分辨率图像视为一个复杂最优化问题的MAP解,使用先验平滑假设来减少不连续测量的影响。
最大后验概率(MAP)的含义就是在已知低分辨率视频序列的前提下,使出现高分辨率图像的后验概率达到最大。
最大后验概率估计方法的收敛稳定性取决于先验概率,先验概率模型应该是一个具有边缘保持能力的局部平滑的凸函数。
最大似然增强方法可以认为是最大后验概率增强方法在等概率先验模型下的特例。
最大后验概率估计方法的优点是在解中可以直接加入先验约束,适用于非线性和线性成像模型,能确保解的存在和唯一,降噪能力强、收敛稳定性高,可同时实现运动估计和增强;缺点是收敛慢和运算量大。
另外,最大后验概率估计算法的边缘保持能力不如凸集投影方法,由这类方法获得的高分辨率图像的细节容易被平滑掉。
其他还有基于高斯先验假设[36]和动态树推理算法[37]等。
MAP方法的优点在于有惟一解,如果有合理的先验假设可以获得非常好的图像边缘效果。
但是其显著的缺点就在于计算量相对比较大。
(4)混合MAP/POCS方法;
通过最小化有特定集合约束的最大后验概率/最大似然估计(MAP/ML)的损失函数,得到高分辨率图像的估计就是最大后验概率/最大似然估计/凸集投影(MAP/ML/POCS)混合方法.Schultz和Stevenson[6,35]最早将MAP优化与投影约束相结合。
MAP/POCS综合法综合利用了这两种算法各自的优点,在最大后验概率方法的迭代优化过程中加入了一些先验约束。
已有的理论证实,只有采用梯度下降最优化方法才能保证这种MAP/POCS方法收敛到全局最优解。
混合方法结合了MAP和POCS各自的优点,充
分利用了先验知识并且收敛的稳定性也比较好,是目前为止基于重建的算法中最好的。
这里只是介绍了常用的4种基于重建的超分辨率的方法。
基于重建的方法比较成熟,主要针对图像空间信息的增强和复原,但是仍存在很多问题。
为了增强超分辨率算法的鲁棒性,人们又提出了许多改进方法。
文献[38]使用运动分割方法来处理运动物体,其依赖于运动分割的精确性。
一种鲁棒的中值估计器被应用到一个迭代的超分辨率算法中[39],由于它使用待放大的输入图像的中值作为初始值,只有背景图像的分辨率被增强,而不是整个图像都被增强。
在很多算法中,强加的平滑约束条件削弱了高频成分,使结果变得模糊。
当场景严格不变时,如一副二值文本图像,可使用规则化调整算法。
总的来说,基于重建的方法发展比较成熟,主要针对图像空间信息的增强和复原,在一些情况下取得了不错的效果。
但是还需要进一步提高超分辨率图像增强的能力,减小计算量,加快运算的收敛速度,适用于不同的图像和应用场合。
三.基于学习的超分辨率技术
基于学习的概念首次由Freeman提出,基本思想是先学习低分辨率图像与高分辨率图像之间的关系,利用这种关系来指导对图像进行超分辨率。
马尔可夫网络建模低分辨率和高分辨率图像块间的关系,学习因降质丢失的高频分量,然后与插值得到的初始估计相加恢复出高分辨率图像。
通过算法去学习识别指定类别,如对象、场景、图像,将得到的识别先验知识用于超分辨率,通过对人脸和文字图像的实验,获得了比传统使用标准平滑先验知识的基于重构的超分辨率方法更好的结果,这就是基于学习的超分辨率方法。
基于学习的超分辨率算法使用一个图像训练集来产生一个学习模型,并运用这个模型创建图像的高频细节。
基于学习的方法是近年来超分辨率算法研究的热点方向。
其基本思路是通过给定的训练图像集,计算测试样本的patch与训练图像集patches之间的邻域关系,并构造最优权值约束,来获得先验知识并逼近测试样本的高分辨率图像。
当低分辨率数据提供的信息不满足高分辨率需求时,基于学习的方法可以获得更多的图像高层信息,因而具有很大优势,在图像超分辨率应用中可能得到比较理想的结果,为在大抽取率情况下恢复必要的高频信息给出了新的思路。
基于学习的方法认为,低分辨率的图像已经拥有充分的用于推理预测其所对应的高分辨率部分(例如边缘等)的信息,通过对一组同时包括高分辨率图像和低分辨率图像的训练集合的训练,学习到一个联合的系统模型。
这个模型的表现形式可以是:
一组学习到的插值核、一个低分辨率patch的查找表、低分辨率patch与高分辨率patch之间的映射系数等。
基于学习的方法是在基于重建的方法遇到困难的情况下发展起来的,虽然起步较晚,但目前看来,能够弥补基于重建方法的很多不足。
结合智能技术的发展,这种方法应该能极大地提高视频空间分辨率,是值得进一步研究的方向。
(1)Example-based方法;
Freeman等[40,41]首次使用Markov网络对图像的空间关系进行建模,他把图像分成一些5×5或7×7的小块,成为patch,通过学习,获得表示高分辨率patch之间的转移概率矩阵Ψ和表示高分辨率patch和低分辨率patch之间的转移概率矩阵Φ。
对于一个给定的测试图像y,同样把它分割成patch之后,对于每一个patch在寻找它在Markov网络中的位置,同时获得它与一些高分辨率patch之间的关系,再根据训练得到的转移概率把高频分量添进去。
Examp
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 视频 增强 技术 综述 20