人脸识别.docx
- 文档编号:6394989
- 上传时间:2023-01-06
- 格式:DOCX
- 页数:12
- 大小:1.20MB
人脸识别.docx
《人脸识别.docx》由会员分享,可在线阅读,更多相关《人脸识别.docx(12页珍藏版)》请在冰豆网上搜索。
人脸识别
杭州电子科技大学
毕业设计(论文)外文文献翻译
毕业设计(论文)题目
翻译
(1)题目
翻译
(2)题目
学院
专业
姓名
班级
学号
指导教师
对人脸检测和跟踪算法的对比研究
RachidBelaroussi,MauriceMilgram
摘要
人脸检测被很多基于视觉的产品和人机互动产品首先应用。
其中最关键的问题是在彩图中识别人脸。
基于哈尔特征的开源图库安装了四个加强的分类器,以用来对比速度和效率。
肤色分布用非参数化方法来评估。
为了避免评估偏差,这一模型在序列中并未升级而是在识别到人脸后进行更新,这样使我们的系统能更加稳定的应付不同的光照条件。
肤色模型则被用来识别以椭圆为代表的脸型:
连通分量分割和统计方法,也就是Bradsky的耦合Camshift算法被来进行运行效率和速度的对比。
我们将这一算法在不同的视频序列根据不同的光照度,人脸姿态,脸型和不同的背景上进行了试验。
关键词:
人脸检测,开源计算机视觉库,肤色模型,耦合Camshift
1介绍
静态影像人脸检测是一个棘手的问题,并且常常被分为两类:
最棘手的地方是区分非人脸图层的复杂性高。
自从Sung和Poggio(1998)起,引导方法便被用来解决这一问题,且对大多正脸情况下的检测都是成功的。
越来越多的研究领域是集中在发展中国家对外观基于模型的多视图和旋转不变人脸检测(Wu,Ai,Huang,&Lao,2004)。
多视点人脸识别(Schneiderman&Kanade,2000)的目标是通过平面角度识别人脸(从x轴和y轴的水平和上下角度)。
旋转不变人脸检测(Rowley,Baluja,&Kanade,1998)主要为面内循转(头部转动,绕z轴旋转)。
两种类型的旋转在Jones和Viola
(2003)LiandZhang(2004),Wuetal.(2004)andKim,Kee,andKim(2005)中均有提及。
姿态可以由分类器进行评估(Rowleyetal1998),然后潜像被输入,传统人脸检测器对实验者进行分类。
姿态评估结果(Jones&Viola,2003)可以和N种特定的人脸检测器进行级联。
这些方法在识别静态图像时极其有效,但是在实时动态图中的效果就很慢了。
在图片序列中,利用简单的线索,比如快速处理和细微人脸识别和姿态评估中的肤色结果。
在固定的光照条件下,肤色的变化范围,方向和遮挡光阴比较稳定(Phung,Bouzerdoum,&Chai,2005;Schwerdt&Crowley,2000;Vezhnevets,Sazonov,&Andreeva,2003)。
光照条件在人脸跟踪的过程中可能会产生非常大的变化。
困难的
应克服基于皮肤颜色跟踪器的颜色改变(比如,跟踪器在黑暗中作为台式机应用时,光照应该为蓝色!
),光照的不一致要根据肤色的改变来改变。
场景的光照不均匀性能导致脸部阴影,尤其在多光源环境下,当人脸在移动时会产生肤色变化(Soriano,
Martinkauppi,Huovinen,&Laaksonen,2003;Yang&Waibel,1996)。
为了克服亮度的影响,一些作者进行仅使用肤色色度以及人脸跟踪去掉了亮度信息,在色彩进行肤色分布,亮度,和肤色平滑地变化模型不时进行更新,或者是通过序列的新图像。
肤色模型能够通过一个参数(McKenna,Gong,&Raja,1998)或者非参数模型(Swain,1991)进行评估。
肤色检测中用到了几种色彩空间,比如在Bradski(1998)唯一的HSV色彩通道被用来评估色彩分布,又如McKennaetal(1998),Yoo和Oh(1999)和Zhu,Yang,和Waibel(2000)的HSV色度平面也被用到。
其他色彩平面包括YCbCr的CbCr平面(Belaroussi,Prevost,&Milgram,2005;Hu,Worrall,Sadka,&Kondoz,2004;Seguier,2004)。
视觉均匀色彩系统中的ab空间比如Lab(Li,Goshtasby,&Garcia,2000;Schumeyer&Barner,1998)或者Luv中的uv平面(Yang&Ahuja,1999)。
他们都假设在这些空间里,不论输入司马懿的肤色类型(非洲,棕色,亚洲,白种人)均能得到肤色分布良好的模型。
跟踪可以以一种更确定的方式进行,或者用卡曼滤波或者微粒滤波。
比如Yin,Zhang,Sun,andGu(2011a)andWang,Yang,Xu,andYu(2009)的镜头变换算法被结合到微粒滤波中来跟踪特定色彩。
我们没有调查粒子滤波的效果,我们认为人脸检测被的频率能够很好地更新他的皮肤颜色模型。
本文提出了一种高效的人脸检测和跟踪方案来检测多种情况下的不同人脸。
人脸周期性的在序列中被检测,利用基于Viola和Jones(2001)的哈尔特征滤波的注意力级联,结果检测则利用肤色概率密度函数(pdf)。
当一个目标是已经被跟踪,面部检测器被激活时,每次检测N=20的图像序列。
人脸为基于肤色椭圆机型建模:
当一个人脸面积小于100个像素,则应该是看不到的。
相应的目标被释放,这样的人可以进出场景的任何部分,并且相机应该是固定的。
当没有目标,,每N=2的图像序列,人脸检测器被激活,导致在算法上耗费更多的时间,但处理更为迅速。
肤色的色调在单纯HSV饱和色度平面上使用非参数方法直方图建模。
直方图投影反应在肤色概率图中,这图是通过连通分量分割或者耦合移动镜头程序(Bradski,1998)来进行人脸识别过程的。
2检测器的选择
四种基于哈尔特征滤波的正脸检测器都在开源计算机视觉库中运行,且由Lienhart,Kuranov,和Pisarevsky(2002).详细的介绍过,他们适应于不同的情况,具体如下:
·输入尺寸:
20*20或者24*24.
·分类器的弱点类型:
两种或者三种终端节点。
·强分类器训练算法:
离散Adabost算法(Freund&Schapire,1996)或者普通Adaboost算法(Friedman,Hastie,&Tibshirani,1998)。
·加强的分类器结合:
共源共栅(Viola&Jones,2001)或者决策树(Lienhart,Liang,&Kuranov,2003)。
2.1快速稳定的人脸检测图像处理
利用摄像头得到了320*240图像的序列(Yin,Winn,&Essa,2011b)。
要执行一个快速的可靠的人脸跟踪系统,面部检测步骤需要快速和高效。
但它也需要产生尽可能少的误报,正如在我们的方法中会持续对错误目标进行跟踪:
那么就需要作出妥协。
每个图像减小两个因子,所以由检测器所处理的图像尺寸是160*120:
通过此操作,人脸检测耗时更短,面部参考更可靠的,如图表1中,但最小的可检测的面部尺寸更高。
表一24*24序列处理200张图片的性能,每张图片包含一张人脸
图一原图(320*240)和压缩图(160*120)
表二搜索窗口大小为160*120,所有尺度放大系数fQ=1.2,对一个24*24的级联
表三搜索窗口大小为320*240,扩大系数fQ=1.2,对所有24*24的级联
图像缩小是由一个二级抽样通过低通滤波而得到的(见图1)。
这些点都是由一个24*24的共源共栅的加强分类器得来:
见表1.它是由200个人坐在自己的显示器前与水平往复运动(从左至右)的图像。
面部在不同的时刻的序列(在平面内旋转,直至±90°)倾斜,而检测器的结果未检测到人脸,因为它只有正脸的数据库。
研究主题与平行同向摄像头传感器方案近似:
它的脸在整个序列中保持约一个几乎固定的80*80大小。
所以我们决定接下来对图片进行预处理。
2.2四种检测器的性能比较
安东尼序列也被用来对比四种检测器的性能。
表4列出了检测人脸数量和检测200张人脸的平均耗时。
错误数量并没有列出因为在这一序列中无效。
我们能看到24*24得到最好的结果:
速度快并且检测率最高。
这一检测器的唯一缺点是它仅能检测大于48*48的原始图片,这也意味着人脸要尽量靠近摄像机。
表四分类器的检测率超过200张160*120的安东尼序列,每幅图像一张的脸。
对于四个检测器的错误均被淘汰
图二人脸检测样本,24*24安东尼序列级联
3基于肤色的跟踪:
两种方法的一系列对比
3.1目标模型:
基于像素级别的肤色建模
一旦人脸被识别,一组像素的皮肤颜色模型被定义构建。
为了避免人脸不可靠边界像素的效果矩形化,这些像素被如图中的椭圆所标记出来(人脸只能可以从正面检出)矩形的长和宽分别为人脸的一半,边界矩形中所示的宽度和高度如图3所示。
一个32*32的直方图被用作肤色的参数模型。
也就是说Hue和Saturation的频道值是32。
那么每个像素色差值(H,S)都在直方图中可查阅。
二维直方图计数因此发生在每种训练数样品的颜色中,然后在0和1归一化来表示皮肤颜色的概率。
这种模式的过度反投影该图像是一个肤色概率图,我们将调用Pskin:
原始图片的像素都通过直方图中相应的概率值在Pskin中进行替换。
3.2连通分量分割法
一旦Pskin,ROI的肤色概率图被计算出来,那么人脸识别可以由以下三步来完成:
·Pskin图模糊:
扩展和高斯过滤。
·连通分量分割:
参与实验的人脸连通分量的临界值和选择。
·最佳椭圆滤波的计算。
Pskin的扩展是因为摄像机会产生粗糙色彩质量:
没有这一步,后面应用的门槛操作会将人脸分离成两个关联的部分(甚至更多),一个是面(正面)的上半部而另一个是面的底部(两颊,鼻子和嘴)。
用于膨胀的建构元件的是一个3*3的正方形。
检测器确定的矩形框利用瞄准像素建造的模型
图三利用训练像素构建H-S算法来构建肤色以减轻非肤色像素的副作用
3.3耦合Camshift算法:
均值漂移和Camshift步骤
Camshift算法是由Bradski(1998)引进,用于对脸部彩色物体跟踪。
在本节中,是指应用于概率皮肤图像移位过程呈现前Camshift的,这是适用于静止图像,以及耦合的Camshift为视频序列。
均值漂移算法可以使用的Pskin皮肤概率图像上。
它首先建立一个窗口W(标度和位置),那么当W超过一个阈值(在我们的实验中为1的象素)然后完成以下程序:
·Pskin的重力中心计算。
·W处于均值位置的中心。
耦合Camshift的是应用到视频的Camshift算法序,但是并不是再次施加均值漂移到同一图像,而是将其移动到序列中的下一帧。
对于人脸跟踪,投资回报率是以一个确定的方式定义(见确定性方法)。
耦合的Camshift然后可以被看作是一个四步的算法来适用于框架在时间t(均值漂移窗口W被初始化通过其在时间位置T-1):
三个已经提到的步骤,接着由于W的矩形由一个1.4因子(+/-20%的沿宽度和高度的放大倍率),以在限定人脸搜索区域(ROI)下一个帧,如图4。
3.4两种跟踪方法的对比
正如之前所述,我们利用两种方法通过我们的算法来检测和跟踪人脸。
这一部分中我们将其进行对比。
这三种序列对应着不同的方案:
·在杰夫序列是由48个图像。
主要面对主题有从120*150到140*160不等,和几乎保持直立的序列中:
给出一个例子图6。
脸部检测到第一帧,并通过这两种方法完美跟踪。
然而,Camshift的是更快的,平均8毫秒/帧,而连接的组件处理时间是~12.5毫秒,这些时间包括人脸检测的时间。
一帧一帧的人脸检测结果在47个正确的检测,1个错误和1未检测到,计算时间为~60毫秒/帧(160*120缩小图像被用到)。
·杰米序列由85帧组成,由于遇到的极端的光照条件所以是最具挑战性的。
背景是黄色的接近肤色,而人脸被后面用霓虹灯源减轻亮度。
我们可以看到,在图8的前两个例子在面部的阴影。
杰米视频包含一个面由图像:
目标的初始化是在帧号为3时开始,在此之后,皮肤颜色模型是在3种不同瞬间更新。
这些结果总结在表5当中。
图六两种不同尺寸ROI图的后处理:
每个目标的最大轮廓由椭圆标记出来
图七Camshift处理一幅静态图的通道
图八人脸检测的样本(蓝色矩形)和杰米序列跟踪
表五三种序列对293张图片的平均检测效率
4总结
本文我们提出了一种高效的人脸识别和跟踪方法。
目前人脸检测器在开源计算机视觉库中能用的被分为四类,我们对其进行了准确性和速度评估。
24*24级联加强分类器也参与了目标初始化,同时利用非参数方法跟踪基于肤色模型的人脸。
我们对两种基于肤色的跟踪方法进行了对比:
连通分量分割和耦合Camshift。
后者表现得更为快速和准确,且能够在低于9毫秒/帧的PIV@2.8GHz机器上运行检测和跟踪程序。
参考文献
Belaroussi,R.,Prevost,L.,&Milgram,M.(2005).Combiningmodel-basedclassifiers
forfacelocalization.InProceedingsoftheninthIAPRconferenceonmachinevision
applications(pp.290–293).
Bradski,G.(1998).Computervisionfacetrackingforuseinaperceptualuser
interface.IntelTechnologyJournal,Q2(15).URLciteseer.ist.psu.edu/
bradski98computer.html.
Fitzgibbon,A.W.,Pilu,M.,&Fisher,R.B.(1999).Directleast-squaresfittingof
ellipses.IEEETransactionsonPatternAnalysisandMachineIntelligence,21(5),
476–480.
Freund,Y.,&Schapire,R.E.(1996).Experimentswithanewboostingalgorithm.In
Internationalconferenceonmachinelearning(pp.148–156).
Friedman,J.,Hastie,T.,&Tibshirani,R.(1998).Additivelogisticregression:
A
statisticalviewofboosting.Technicalreport,DepartementofStatistics,
StanfordUniversity.
Hu,M.,Worrall,S.,Sadka,A.,&Kondoz,A.M.(2004).Automaticscalablefacemodel
designfor2dmodel-basedvideocoding.SignalProcessing:
Image
Communication,19(5),421–436.
i2i,2011.Microsoftresearchcambridge.i2i:
3DVisualCommunication.URL
Jones,M.,&Viola,P.(2003).Fastmulti-viewfacedetection.Technicalreport,
MitsubishiElectricResearchLaboratories.,presentdemonstrationComputer
VisionandPatternRecognition.
Kim,J.-B.,Kee,S.-C.,&Kim,J.-Y.(2005).Fastdetectionofmulti-viewfaceandeye
basedoncascadedclassifier.InProceedingsoftheninthIAPRconferenceon
machinevisionapplications(pp.116–119).
Li,S.Z.,&Zhang,Z.(2004).Floatboostlearningandstatisticalfacedetection.IEEE
TransactiononPatternAnalysisandMachineIntelligence,26(9),1112–1123.
Li,Y.,Goshtasby,A.,&Garcia,O.(2000).Detectingandtrackinghumanfacesin
videos.InProceedingsofthe15thinternationalconferenceonpatternrecognition
(Vol.1,pp.807–810).
Lienhart,R.,Kuranov,A.,&Pisarevsky,V.(2002).Empiricalanalysisofdetection
cascadesofboostedclassifiersforrapidobjectdetection.Technicalreport,
MicroprocessorResearchLab,IntelLabs.
Lienhart,R.,Liang,L.,&Kuranov,A.(2003).Adetectortreeofboostedclassifiersfor
real-timeobjectdetectionandtracking.InIEEEinternationalconferenceon
multimedia&expo.
McKenna,S.J.,Gong,S.,&Raja,Y.(1998).Modellingfacialcolourandidentitywith
gaussianmixtures.PatternRecognition,31(12),1883–1892.
Swain,M.J.,&Ballard,D.B.(1991).Colorindexing.InternationalJournalofComputer
Vision,7
(1),11–32.
OpenCV.(2011).Opensourcecomputervisionlibrary.URL
projects/opencvlibrary/.
Phung,S.,Bouzerdoum,A.,&Chai,D.(2005).Skinsegmentationusingcolorpixel
classification:
Analysisandcomparison.IEEETransactionsonPatternAnalysis
andMachineIntelligence,27
(1),148–154.
Rowley,H.A.,Baluja,S.,&Kanade,T.(1998).Neuralnetwork-basedfacedetection.
IEEETransactionsonPatternAnalysisandMachineIntelligence,20
(1),23–38.
Schneiderman,H.,&Kanade,T.(2000).Astatisticalmodelfor3dobjectdetection
appliedtofacesandcars.InProceedingsoftheIEEEconferenceoncomputervision
andpatternrecognition(Vol.1.pp.746–751).
Schumeyer,R.,&Barner,K.(1998).Color-basedclassifierforregionidentificationin
video.InProceedingsoftheSPIEvisualcommunicationsimageprocessing(Vol.
3309.pp.189–200).
Schwerdt,K.,&Crowley,J.L.(2000).Robustfacetrackingusingcolor.Proceedingsof
thefourthIEEEinternationalconferenceonautomaticfaceandgesturerecognition
(pp.90).Washington,DC,USA:
IEEEComputerSociety.
Seguier,R.(2004).Averyfastadaptivefacedetectionsystem.InInternational
conferenceonvisualization,imaging,andimageprocessing.
Soriano,M.,Martinkauppi,B.,Huovinen,S.,&Laaksonen,M.(2003).Adaptiveskin
colormodelingusingtheskinlocusforselectingtrainingpixels.Pattern
Recognition,36(3),681–690.
Sung,K.-K.,&Poggio,T.(1998).Example-basedlearningforview-basedhumanface
detection.IEEETransactionsonPatternAnalysisandMachineIntelligence,20
(1),
39–51.
Vezhnevets,V.,Sazonov,V.,&Andreeva,A.(2003).Asurveyonpixel-basedskin
colordetectiontechniques.InProceedingsofGraphicon-2003,Moscow,Russia
(pp.85–92).
Viola,P.,&Jones,M.(2001).Rapidobjectdetectionusingaboostedcascadeof
simplefeatures.InPro
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 识别
![提示](https://static.bdocx.com/images/bang_tan.gif)