基于深度学习的人脸识别技术综述.docx
基于深度学习的人脸识别技术综述简介:人脸识别是计算机视觉研究领域的一个热点,同时人脸识别的研究领域非常广泛。因此,本技术综述限定于:一,在LFW数据集上(LabeledFacesintheWild)兼得优秀结果的方法二,是采用深度学习的方法前言1.FW数据集(LabeledFaCeSlntheWild)是目前用得最多的人脸图像数据库。该数据库共13,233幅图像,其中5749个人,其中1680人有两幅及以上的图像,4069人只有幅图像C图像为250.250大小的JPEG格式。绝大多数为彩色图,少数为灰度图。该数据库采集的是自然条件下人脸图片,目的是提高自然条件下人脸识别的精度。该数据集有6中评价标准:»Unsupervised;二,Image-restrictedwithnooutsidedata;三,Unrestrictedwithnooutsidedata:N,Image-restrictedwithlabel-freeoutsidedata:五,Unrestrictedwithlabel-freeoutsidedata:六,Unrestrictedwithlabeledoutsidedata:目前,人工在该数据集上的准确率在0S4270992(L在该数据集的第六种评价标准下(无限制,可以使用外部标注的数据),许多方法已经赶上(超过)人工识别精度,比方face+QeeplD3,EQJ ST-HSOd 9nsHuman PerformanceHunanr unneledHunan, cropped Hman, inverse askHuman,funneled110.9920Humanzcropped110.9753Human,inversemask】0.9427Table7:Meanclassificationaccuracy0andstandarderrorOfthemeanSee.l8.2B.3.4.3e.0.7.8.9falsepositiverateFaceNet 等。Figure7:ROCcurvesaveragedover10foldsofView2.图-/发一:人类在LFW数据集上的识别精度表二:第六种标推下,局部模型的识别准确率(详情参见IfW结果)Unrestricted,LabeledOutrideDataResult%Simileclassifiers0.8472±0.0041AttributeandSimileclassifiers110.8554±0.35MultiplLE*ConM0.8445±0.0046Associate-Predicte0.9057±0.56TOnVVS-Pete230.9310士0.0135Tom-VS-Pete÷Attribute30.9330±0.0128combinedJointBayesian%0.9242±0.0108KighYmLBP"0.9517±0.0113DFD330.8402±0.0044TLJointBay3an"0.9633±0.0108r2011b190.9130±0.30Face+400.9950上0.36DpFac-esmbe10.9735±OoO25ConvNet-RBM420.9252土0.38POOF-gradhist440.9313±0.0040PooFXOGy0.9280±0.0047FRFCn'50.9645±O.25DeepID460.9745±0.0026JUSSianFace"70.952±0.0066DeepID2480.9915±0.13530.9333±0.0124D<pID2*550.W7±0.12560.9808±0.16DeepID3570.9953±0.10Insky.so0.9551土0.13Uni-UM600.9900±0.32FaCeNet620.9963士0.09续上表本文综述的人脸识别方法包括以卜几个筛选标准:一,在上表中识别精度超过0.95(超过人类的识别准确度"二,公布了方法局部结果为商业公司提交,方法并未公布,比方Tencent-Bestlmage):三,使用深度学习方法:三,近两年的结果。本文综述的方法包括:1,face+(0.9950J;2,DeepFace(0.9735):3,FR+FCN(0.9645):4.DeepID(0.9745):5,FaceNet(0.9963);6.baid的方法(0.9977);7,pose+shap+xpressionaugmentation(0.9807);8.CNN-3DMMestimation(0.9235,准确率没那么高,但是值得参考).人脸识别方法1,fac+(0.9950)参考文献:Naive-DeepfaceRecognition:TouchingtheLimitofLFWBenchmarkorNot?face+从网络上搜集了5million张人脸图片用于训练深度卷积神纾网络模型,在LFW数据集上准确率非常高。该篇文章的网路模型很常规(常规深度卷积神经网络模型),但是提出的问题是值得参考的。问题-:他们的MegviiFaceRecognitionSystem经过训练后,在LFW数据集上到达了0.995的准确率。在宾实场景测试中(ChineseID(CHID),该系统的假阳性率(FP=1O-5)非常低.但是,真阳性率仅为066,没有到达真实场景应用要求其中,年静差异(包括intmvariatioru同一个人,不同年龄照片:以及intervaHom不同人,不同年龄照片)是影响模型准确率原因之一而在该测试标准(CHlD)E人类表现的准确率大于0.90Figure5.SomeFailedCasesintheCHTDBenchmark.TherecognitionsystemsuffersfromIheagevariationsintheCHIDbenchmark,includingintra-variation(i.c.,sameperson'sfacesCupturedindiITcrentage)andinter-variation(i.e.,peopleWithdifferentages).Becauselittleagevariationiscapturedbytheweb-collecteddata,notsurprisingly,thesystemcannotwellhandlethisvariation.Indeed,wedohumantestonallthesefailedcases.Resultsshowthat90%failedcasescanbesolvedbyhuman.Theresiillexistsabiggapbetweenmachinerecognitionandhumanlevel.图1-1:在CHlD中出错的样本问题二,数据采集偏IL基丁网络采集的人脸数据集存在偏整。这些偏差表Si在,1,个体之间照片数量差异很大I2,大局部采集的照片都是,微笑,化装,年轻,漂亮的图片.这些和真实场景中差异较大。因此,尽管系统在LFW数据集上有高准确率,在现实场景中准确率很低。批注(pl:假阳性率.英语名称IfalSe p。SitiVerate. FPR.通俗名称;误论率或第1类错误的。解择:IP实际无病0阴性,但被昇为有病或阳性的百分 比.问题三,模型测试I假阳性率)非常低.但是现实应用中,人们更关注I真阳性率!。批注p2:出阳性率(UUePOmiVeQte, TPR).又称Ift感 度(sensitivity. SEN).即实际有病而按该筛位试验的标 ,被正硝修文为有病的百分比.它反映输检试验发现病 人的能力。问题四:人脸图片的角度,光线,闭合(开口、闭口)和年汾等差异相互的作用,导致人脸识别系统现实应用准确率很低因此,该文章提出未来进一步研究的方向。方向一M从视易中提取训练数据.视算中人脸画面接近于现实应用场景(变化的角度,光照,表情等);方向二,通过人脸合成方法1加训练数据.因为单个个体不同的照片很困难(比方,难以搜集大量的单个个体不同年龄段的照片,可以采用人脸合成的方法(比方3D人脸重建)生成单个个体不同年龄段的照片)。该文章提出的方向在后续方法介绍中均有表达。2,DeepFace(0.9735)参考文献:Deepface:Closingthegaptohumal-levelperformanceinfaceverification2.1 简介常规人脸识别流程是:人脸检澳1-对齐-表达-分类。本文中.我们通过额外的3d模虱改良了人Ift对齐的方法.然后,通过基于4million人脸图像(4000个个体)调练的一个9层的人工神经网络来进行人脸特征表达.我们的模型在LFW数据集上取得了0.9735的准确率.该文章的亮点有以下几点:一,基于3d模型的人脸对齐方法:-.大数据训练的人工神经网络。2.2 人脸对齐方法成正面图像,文中使用的人脸对齐方法包括以下几步:1.通过6个特征点检测人脸;2,剪切:3.建立Delagay triangulation: 4,参考标准3d模型;5.将3d模型比对到图片上;6,进行仿射变形;7,最终生FigUre L Alignment PiPdin (a) The detected face. Wilh 6 initial fiducial points, (b) The induced 2D-aligned crop, (c) 67 HdUClal points on IhC 2Daligncd crop with Iheir corresponding Delaunay triangulation, we UddCd Ihanglcs on IhC contour to avoid Wsconiinuii心.(d) The reference 3D shape irunsrrd k> IhC 2D-aligncd CroP image-plane. (C) Triangle visibility w.r.t. to the fitted 3D-2D camera; black triangles arc lc、 isible. (f) The 67 Iiducial points induced by the 3D model that arc using to direct the piecc-wisc ainc warpping, (g) The Iinal Irontalized crop, (h) A neu view generated hy the 3D model (not used in IhiS paper).图2一1人脸对齐的流程2.3深度神经网络hpmr: Otfhnr4IhrIkffFacrar<ik<lMv AfmNHadD(II'mgkwmMMEp3现NEUliIu,n WtrrMp加eMinZ*, hdlu*dby m fealh >flccied byer aid i*> Iulh-Iumeiitd l*)tn. Cu4n lh>tr* naput< (w eac