基于人脸姿态控制的交互式视频活体检测方法及其系统的制作方法

文档序号:9506533阅读:794来源:国知局
基于人脸姿态控制的交互式视频活体检测方法及其系统的制作方法
【技术领域】
[0001]本发明涉及生物识别技术领域,尤其涉及基于人脸姿态控制的交互式视频活体检测方法及其系统。
【背景技术】
[0002]人脸识别作为一项成熟的生物识别技术,目前已广泛应用于金融、公安、社会服务、电子商务等领域。然而人脸很容易用视频或照片等进行复制,活体检测是人脸识别能否有效应用的前提,目前对活体检测方法的研究有很多。大多数活体检测方法是研究性质的,它们大多基于特征提取与训练的方式,这类方法的准确性是不可控的。另一类方法是要求用户做转头、摇头、眨眼或者张嘴等动作,但是这类方法对于视频的防欺骗性不高。

【发明内容】

[0003]本发明为克服上述的不足之处,目的在于提供基于人脸姿态控制的交互式视频活体检测方法,本方法思路是当用户的人脸被检测到之后,用户将被要求进行眨眼或者张嘴等动作,以过滤采用照片进行作假的用户;在整个检测过程中,用户的人脸将会被跟踪,以防止在认证的中途用户人脸被切换,并且在整个认证过程中会抽取多张人脸照片与后台人脸识别比对服务器预存的用户人脸照片进行人脸比对,以防止其他人进行假冒。
[0004]本发明另一目的在于提供基于人脸姿态控制的交互式视频活体检测系统,包括摄像头、智能设备以及人脸识别服务器,该系统能准确判断出当前检测者是否为活体真人,解决了现有活体检测技术中存在的照片或视频欺骗问题。
[0005]本发明是通过以下技术方案达到上述目的:基于人脸姿态控制的交互式视频活体检测方法,包括如下步骤:
[0006](1)系统对检测区检测到的人脸进行跟踪,并提示用户做人脸姿态动作;
[0007](2)用户在规定时间内完成人脸姿态动作,系统对人脸进行关键点定位和人脸姿态估计,生成一个控制点;并随机选择如下两类动作指令要求用户完成:
[0008](a)张嘴动作指令,要求用户完成张嘴动作;
[0009](b)控制点移动动作,该动作要求用户在非张嘴状态下完成,系统根据初始控制点的位置,随机选择点、线、或其他等若干图样的一种,要求用户利用姿态动作操作控制点去碰撞或者沿着图样路径移动;
[0010](3)重复步骤(2)若干次,并根据用户动作的完成情况判断活体检测是否成功,同时获取若干张用户人脸照片;
[0011](4)将获取到的照片与系统预存的用户人脸照片对比,若比对成功则活体检测成功;否则活体检测失败。
[0012]作为优选,所述的规定时间为5-10s。
[0013]作为优选,所述步骤(2)的关键点定位方法如下:
[0014]1)采用人工标注方式对人脸的各个特征点位置进行标注;
[0015]2)人脸识别服务器对标注后的人脸进行定位,根据得到的人脸框计算各个特征点在人脸框中的局部坐标;
[0016]3)对所有特征点的坐标进行计算得到平均值,得到平均人脸特征点位置,作为人脸特征点位置的初始位置配置;
[0017]4)根据人脸特征点位置的初始位置配置,结合人脸对齐模型进行迭代获得人脸特征点位置,即完成关键点定位。
[0018]作为优选,所述的人脸框通过人脸检测算法计算得到。
[0019]作为优选,所述的人脸对齐模型是通过计算人工标注特征点与初始配置特征点的差异,得到迭代方向和步长生成对齐模型;根据下式求取最小化以实现人脸特征点对齐:
[0020]F (Ρ°+ Δ P) = | |Η(Ρ°+ΔΡ)-Η(Ρ*) |
[0021]其中,^为根据人脸识别服务器的定位以及平均人脸对齐特征点计算得到的初始位置配置,Ρ*为人工标注的人脸特征点位置,A P为初始位置配置与P*的位移量,H(.)为SIFT特征或者H0G特征提取函数。
[0022]作为优选,所述步骤(2)的人脸姿态估计方法如下:
[0023](i)根据人脸特征点位置计算眼睛-嘴巴距离Lf,鼻子-嘴巴距离Ln,以及鼻基-鼻尖距离Lm ;
[0024](ii)计算 Rm = Lm/Lf, Rn = Ln/Lf ;
[0025](iii)根据Rm和Rn的值计算得到人脸的三个方向的夹角,根据夹角的值得到人脸法向量的值;
[0026](iv)根据人脸法向量的值,结合人脸图像的大小计算得到法向量在人脸图像上的位置。
[0027]作为优选,所述步骤(3)若用户没有完成动作,则此轮活体检测结束,进入下一轮检测。
[0028]应用如上所述方法的基于人脸姿态控制的交互式视频活体检测系统,包括:人脸识别服务器、智能设备、摄像头;人脸识别服务器通过无线网或光缆与智能设备连接;智能设备与摄像头连接。
[0029]作为优选,所述的人脸识别服务器包括:数据收发模块、人脸识别比对模块;数据收发模块与人脸识别比对模块彼此连接。
[0030]作为优选,所述智能设备包括:检测人脸与跟踪模块、语音和文字提示模块、人脸照片采集模块、动作指令产生模块、用户动作判定模块和数据收发模块;数据收发模块、用户动作判定模块、动作指令产生模块、人脸照片采集模块、语音和文字提示模块、检测人脸与跟踪模块依次连接。
[0031]本发明的有益效果在于:(1)解决了现有活体检测技术中存在的照片或视频欺骗问题;(2)可用于养老人员的社会保险待遇领取资格认证,也可用于需要远程身份认证的各种应用系统,还可应用于远程或自助式人脸识别领域,实现基于人脸识别的各种应用。
【附图说明】
[0032]图1是本发明方法的流程示意图;
[0033]图2是本发明系统的示意图;
[0034]图3是本发明实施例的系统连接示意图;
[0035]图4是本发明实施例的系统架构示意图;
[0036]图5是本发明实施例的系统应用流程示意图;
[0037]图6是本发明实施例的人脸活体检测示意图1 ;
[0038]图7是本发明实施例的人脸活体检测示意图2。
【具体实施方式】
[0039]下面结合具体实施例对本发明进行进一步描述,但本发明的保护范围并不仅限于此:
[0040]实施例:如图1所示,基于人脸姿态控制的交互式视频活体检测方法,包括如下步骤:
[0041]1)在屏幕框中检测到用户的人脸后进行跟踪;
[0042]2)检测到人脸后,语音提示用户做张嘴或眨眼动作;
[0043]3)对用户的人脸进行关键点定位和人脸姿态估计,在屏幕中产生一个点让用户进行控制,记为控制点。其中,关键点定位方法如下:
[0044]①先采用人工标注的方式对训练数据集的人脸各个特征点的位置进行标注;
[0045]②使用人脸识别服务器对训练数据集中的人脸进行定位,根据检测到的人脸框,计算各个特征点在人脸框中的局部坐标,对训练数据集中所有特征点的坐标计算其平均值,就可以得到一个训练集的平均人脸特征点位置,把它作为人脸特征点位置的初始位置配置;
[0046]③人脸对齐模型训练是通过计算每个训练数据的人工标注特征点与初始配置特征点的差异,得到迭代方向和步长生成对齐模型。具体根据下式求最小化实现人脸特征点对齐:
[0047]F (Ρ°+ Δ P) = I |Η(Ρ0+ΔΡ)-Η(Ρ*) |
[0048]式中,^为根据人脸识别服务器的定位以及平均人脸对齐特征点计算得到的初始位置配置,Ρ*为训练集中人工标注的人脸特征点位置,A Ρ为初始位置配置与Ρ*的位移量,H(.)为SIFT特征或者H0G特征提取函数。
[0049]④对于视频的每一帧使用人脸检测算法得到人脸框,人脸检测算法可能会获得多个人脸框。
[0050]人脸检测算法如下:
[0051](a)人脸检测首先利用一批人脸图像和一批非人脸图像,对这些图像计算梯度值,这样每幅图像都可以得到一组梯度值向量;
[0052](b)构造一个多式项,把步骤(a)得到的梯度值向量代入到该多项式,求解多式项系数;
[0053](c)检测人脸时,利用40x40的窗口在图像上滑动,并按1.2倍的比例不断等比缩小图像,直至图像小于40x40。对每个窗口计算窗口内的图像块梯度值向量,并与步骤(b)所得到的多项式系数相乘,选择乘积大于0且乘积值最大的作为人脸,并根据缩放系数计算人脸在原始图像上的位置。
[0054]⑤根据人脸框使用平均人脸特征点位置作为初始配置,再根据人脸对齐模型进行迭代获得人脸特征点的位置。
[0055]得到人脸关键点之后,就可以估计人脸的3D姿态估计,计算方法如下:
[0056]①根据特征点计算眼睛-嘴巴距离Lf,鼻子-嘴巴距离Ln,以及鼻基-鼻尖距离Lm0
[0057]②计算Rm = Lm/Lf 和 Rn = Ln/Lf ;
[0058]③根据Rm和Rn的值可以进一步计算得到人脸的三个方向的夹角,根据这些夹角的值,可以得到人脸法向量的值;
[0059]④根据人脸法向量的值,结合图像的大小就可以计算得到法向量在对应图像上的位置了。
[0060]4)根据步骤3)得到的控制点位置,随机产生另外一个或者多个点、线、或者其
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1