生物特征的识别方法及装置、电子设备、存储介质与流程

文档序号:33639574发布日期:2023-03-29 01:41阅读:35来源:国知局
生物特征的识别方法及装置、电子设备、存储介质与流程

1.本发明涉及生物识别领域,具体而言,涉及一种生物特征的识别方法及装置、电子设备、存储介质。


背景技术:

2.近年来,随着各种终端的更新换代以及各场景对信息安全的要求越来越高,人脸识别以其不可复制性、非接触性、可扩展性和便捷性等特点,已在各个领域得到广泛应用,特别是在线上身份认证场景的使用更是普遍,人脸识别已经成为信息安全验证不可避免的一部分。
3.在人脸识别技术应用过程中,主要包括动作活体检测和人脸识别比对两大环节,即通过活体检测判断为正常的人脸后,才进入人脸识别比对,从而确定待识别对象的身份。可见,人脸活体检测是提高人脸认证系统安全性、可靠性的重要环节,而人脸图像决定了最终的识别结果。
4.相关技术中,人脸识别应用最为广泛的移动app等线上渠道场景,主要是通过应用发出的动作指令与用户交互来实现活体检测,让用户配合给定的随机动作指令,例如眨眼、转头、张嘴等运动,然后从采集视频中识别人脸区域的运动信息,并判断该运动信息是否与给定的指令一致来判断是否为活体,同时,从采集的内容中选择正面人脸照片,用于人脸识别比对。
5.动作活体检测技术广泛应用于生物特征识别场景,其能够有效防范静态照片、视频回放和静态头模等攻击,但其也存在如下弊端:第一,由于随机生成的动作指令类型较少,随着各种照片活化工具及ai换脸软件的出现,实现活体检测攻击的成本和难度越来越低,很容易通过视频的方式提前生成与动作指令相对应的动作来进行生物特征识别,欺骗业务人员;第二,某些特殊场景下,动作活体检测无法有效识别当事人是否是自愿进行人脸识别操作的;第三,在进行动作活体检测,用户不仅要正视屏幕,还需要根据屏幕指示做出相应动作,对于某些场景,例如用户戴口罩,或者未佩戴近视眼镜等情况,容易造成用户体验感不佳。
6.针对上述的问题,目前尚未提出有效的解决方案。


技术实现要素:

7.本发明实施例提供了一种生物特征的识别方法及装置、电子设备、存储介质,以至少解决相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
8.根据本发明实施例的一个方面,提供了一种生物特征的识别方法,应用于服务器,包括:接收客户端上传的生物图像序列,其中,所述生物图像序列是指对目标对象进行视频采集后提取的图像序列;分析所述生物图像序列中的表情标签、意图情绪和生物特征比对结果;基于所述表情标签、所述意图情绪和所述生物特征比对结果中至少之一,确定识别置信度;在所述识别置信度大于预设置信度阈值的情况下,将对所述目标对象进行生物安全
识别的异常告知结果输出至所述客户端。
9.可选地,分析所述生物图像序列中的表情标签、意图情绪和生物特征比对结果的步骤,包括:将所述生物图像序列输入至指定深度学习模型,输出与所述生物图像序列中每张生物图像对应的所述表情标签;将所述表情标签输入至指定分析模型,输出每个所述表情标签对应的权重,结合所述表情标签的权重和所有表情标签的正态分布信息,确定所述目标对象的所述意图情绪;采用生物特征提取算法提取与所述每张生物图像对应的特征向量值,将所述特征向量值与原始注册特征进行比对,得到所述生物特征比对结果。
10.可选地,所述指定深度学习模型中神经网络使用的目标损失函数值,采用归一化损失函数与岛屿损失函数计算得到,其中,所述归一化损失函数,采用的计算元素包括:训练样本数、标签分类数和输出向量的图像元素,其中,所述训练样本数为历史时间段中历史生物图像与对应的历史表情标签形成的训练样本的总数量,所述标签分类数为统计的所有待分类表情标签的总数量,所述输出向量为神经网络的输出表情标签对应的向量;所述岛屿损失函数,采用的计算元素包括:所述训练样本数、样本特征向量、表情标签集合、表情标签中心、第一预设权重值。
11.可选地,在将所述表情标签输入至指定分析模型,输出每个所述表情标签对应的权重之前,还包括:采用期望最大算法对包含多个高斯分布函数的混合模型进行训练,得到所述指定分析模型。
12.可选地,结合所述表情标签的权重和所有表情标签的正态分布信息,确定所述目标对象的所述意图情绪的步骤,包括:结合所述表情标签的权重和所有表情标签的正态分布信息,确定与所述生物图像序列对应的意图置信值;在所述意图置信值处于指定异常情绪的置信区间内的情况下,则确认所述目标对象的心理状态异常,所述目标对象的意图情绪异常;在所述意图置信值处于指定正常情绪的置信区间内的情况下,则确认所述目标对象的心理状态正常,所述目标对象的意图情绪正常。
13.可选地,采用生物特征提取算法提取与所述每张生物图像对应的特征向量值的步骤,包括:在所述生物特征为人脸特征的情况下,采用指定卷积神经网络提取所述每张生物图像中的人脸框;以所述人脸框为基准,采用指定人脸向量模型将所述每张生物图像中出现的人脸映射至多维空间向量,得到所述特征向量值。
14.可选地,所述指定卷积神经网络采用多任务卷积神经网络,所述多任务卷积神经网络包括三个子网络:生成候选窗口的第一子网络、过滤候选窗口的第二子网络和生成最终边界框与人脸关键点的第三子网络。
15.根据本发明实施例的另一方面,还提供了一种生物特征的识别方法,应用于客户端,包括:在检测到目标对象对准采集框时,根据指定帧率提取视频流中符合生物识别检测要求的图像,得到提取图像集合,其中,所述视频流是指通过拍摄设备采集所述目标对象的视频;获取所述提取图像集合中每张图像的的指定部位正面区域,截取指定部位区域图像,得到生物图像序列;将所述生物图像序列发送至服务器,其中,所述服务器在接收所述生物图像序列之后,分析所述生物图像序列中的表情标签、意图情绪和生物特征比对结果,并确定对所述目标对象的生物安全识别结果。
16.可选地,在截取指定部位区域图像,得到生物图像序列之后,还包括:采用行程编码策略压缩所述生物图像序列;采用指定加密算法对压缩后的所述生物图像序列进行加
密。
17.可选地,分析所述生物图像序列中的表情标签、意图情绪和生物特征比对结果的步骤,包括:所述服务器将所述生物图像序列输入至指定深度学习模型,输出与所述生物图像序列中每张生物图像对应的所述表情标签;所述服务器将所述表情标签输入至指定分析模型,输出每个所述表情标签对应的权重,结合所述表情标签的权重和所有表情标签的正态分布信息,确定所述目标对象的所述意图情绪;所述服务器采用生物特征提取算法提取与所述每张生物图像对应的特征向量值,将所述特征向量值与原始注册特征进行比对,得到所述生物特征比对结果。
18.可选地,所述指定部位正面区域至少包括:人脸正面区域。
19.根据本发明实施例的另一方面,还提供了一种生物特征的识别系统,包括:客户端,与拍摄设备连接,在接收所述拍摄设备传输的视频流后,执行上述应用于客户端的任意一项生物特征的识别方法;服务器,与所述客户端连接,执行上述应用于服务器的任意一项生物特征的识别方法。
20.根据本发明实施例的另一方面,还提供了一种生物特征的识别装置,应用于服务器,包括:接收单元,用于接收生物图像序列,其中,所述生物图像序列是指对目标对象进行视频采集后提取的图像序列;分析单元,用于分析所述生物图像序列中的表情标签、意图情绪和生物特征比对结果;确定单元,用于基于所述表情标签、所述意图情绪和所述生物特征比对结果中至少之一,确定识别置信度;输出单元,用于在所述识别置信度大于预设置信度阈值的情况下,将对所述目标对象进行生物安全识别的异常告知结果输出至客户端。
21.可选地,所述分析单元包括:第一输入模块,用于将所述生物图像序列输入至指定深度学习模型,输出与所述生物图像序列中每张生物图像对应的所述表情标签;第一确定模块,用于将所述表情标签输入至指定分析模型,输出每个所述表情标签对应的权重,结合所述表情标签的权重和所有表情标签的正态分布信息,确定所述目标对象的所述意图情绪;第一提取模块,用于采用生物特征提取算法提取与所述每张生物图像对应的特征向量值,将所述特征向量值与原始注册特征进行比对,得到所述生物特征比对结果。
22.可选地,所述指定深度学习模型中神经网络使用的目标损失函数值,采用归一化损失函数与岛屿损失函数计算得到,其中,所述归一化损失函数,采用的计算元素包括:训练样本数、标签分类数和输出向量的图像元素,其中,所述训练样本数为历史时间段中历史生物图像与对应的历史表情标签形成的训练样本的总数量,所述标签分类数为统计的所有待分类表情标签的总数量,所述输出向量为神经网络的输出表情标签对应的向量;所述岛屿损失函数,采用的计算元素包括:所述训练样本数、样本特征向量、表情标签集合、表情标签中心、第一预设权重值。
23.可选地,所述分析单元还包括:第一训练模块,用于采用期望最大算法对包含多个高斯分布函数的混合模型进行训练,得到所述指定分析模型。
24.可选地,所述第一确定模块包括:第一确定子模块,用于结合所述表情标签的权重和所有表情标签的正态分布信息,确定与所述生物图像序列对应的意图置信值;第一确认子模块,用于在所述意图置信值处于指定异常情绪的置信区间内的情况下,则确认所述目标对象的心理状态异常,所述目标对象的意图情绪异常;第二确认子模块,用于在所述意图置信值处于指定正常情绪的置信区间内的情况下,则确认所述目标对象的心理状态正常,
所述目标对象的意图情绪正常。
25.可选地,所述第一提取模块包括:第一提取子模块,用于在所述生物特征为人脸特征的情况下,采用指定卷积神经网络提取所述每张生物图像中的人脸框;第一映射子模块,用于以所述人脸框为基准,采用指定人脸向量模型将所述每张生物图像中出现的人脸映射至多维空间向量,得到所述特征向量值。
26.可选地,所述指定卷积神经网络采用多任务卷积神经网络,所述多任务卷积神经网络包括三个子网络:生成候选窗口的第一子网络、过滤候选窗口的第二子网络和生成最终边界框与人脸关键点的第三子网络。
27.根据本发明实施例的另一方面,还提供了一种生物特征的识别装置,应用于客户端,包括:检测单元,用于在检测到目标对象对准采集框时,根据指定帧率提取视频流中符合生物识别检测要求的图像,得到提取图像集合,其中,所述视频流是指通过拍摄设备采集所述目标对象的视频;获取单元,用于获取所述提取图像集合中每张图像的的指定部位正面区域,截取指定部位区域图像,得到生物图像序列;发送单元,用于将所述生物图像序列发送至服务器,其中,所述服务器在接收所述生物图像序列之后,分析所述生物图像序列中的表情标签、意图情绪和生物特征比对结果,并确定对所述目标对象的生物安全识别结果。
28.可选地,所述生物特征的识别装置还包括:第一压缩模块,用于采用行程编码策略压缩所述生物图像序列;第一加密模块,用于采用指定加密算法对压缩后的所述生物图像序列进行加密。
29.可选地,所述生物特征的识别装置还包括:第二输入模块,用于所述服务器将所述生物图像序列输入至指定深度学习模型,输出与所述生物图像序列中每张生物图像对应的所述表情标签;第二确定模块,用于所述服务器将所述表情标签输入至指定分析模型,输出每个所述表情标签对应的权重,结合所述表情标签的权重和所有表情标签的正态分布信息,确定所述目标对象的所述意图情绪;第二提取模块,用于所述服务器采用生物特征提取算法提取与所述每张生物图像对应的特征向量值,将所述特征向量值与原始注册特征进行比对,得到所述生物特征比对结果。
30.可选地,所述指定部位正面区域至少包括:人脸正面区域。
31.根据本发明实施例的另一方面,还提供了一种计算机可读存储介质,计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行上述任意一项生物特征的识别方法。
32.根据本发明实施例的另一方面,还提供了一种电子设备,包括一个或多个处理器和存储器,所述存储器用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现上述任意一项生物特征的识别方法。
33.本公开中,采用以下步骤,接收客户端上传的生物图像序列,其中,生物图像序列是指对目标对象进行视频采集后提取的图像序列;分析生物图像序列中的表情标签、意图情绪和生物特征比对结果;基于表情标签、意图情绪和生物特征比对结果中至少之一,确定识别置信度;在识别置信度大于预设置信度阈值的情况下,将对目标对象进行生物安全识别的异常告知结果输出至客户端。
34.本公开中,进行生物特征识别时,包含了表情检测、意图情绪分析和人脸特征比对
三重校验,通过表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,进而解决了相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
35.本公开中的生物特征识别方法,不依赖特定设备硬件,可在移动终端(例如,手机、平板)等客户端设备上进行应用,无需增加用户成本,具备大范围推广应用的基础。
36.本公开中,在人脸识别过程中,用户只需配合正对设备屏幕的人脸采集框,整个过程简单方便,无需大幅度的动作配合,大大提升用户使用体验。
附图说明
37.此处所说明的附图用来提供对本发明的进一步理解,构成本技术的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
38.图1是根据本发明实施例的一种可选的应用于服务器的生物特征的识别方法流程图;
39.图2是根据本发明实施例的一种可选的应用于客户端的生物特征的识别方法流程图;
40.图3是根据本发明实施例的一种可选的生物特征的识别系统结构框图;
41.图4是根据本发明实施例的一种可选的应用于服务器的生物特征的识别装置的示意图;
42.图5是根据本发明实施例的一种可选的应用于客户端的生物特征的识别装置的示意图;
43.图6是根据本发明实施例的一种生物特征的识别方法的电子设备(或移动设备)的硬件结构框图。
具体实施方式
44.为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
45.需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
46.需要说明的是,本公开中的生物特征的识别方法及装置可用于生物识别领域,在进行活体检测和人脸识别的情况下,也可用于除生物识别领域之外的任意领域在进行生物特征识别的情况下,本公开中对生物特征的识别方法及装置的应用领域不做限定。
47.需要说明的是,本公开所涉及的相关信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。例如,本系统和相关用户或机构间设置有接口,在获取相关信息之前,需要通过接口向前述的用户或机构发送获取请求,并在接收到前述的用户或机构反馈的同意信息后,获取相关信息。
48.本发明可以应用于各种生物特征的识别设备/装置/产品/系统中(例如,各种移动终端、pc端、聊天软件、金融app中),尤其是金融机构进行业务处理过程的生物特征识别、活体检测、人脸信息识别,包含表情检测、意图情绪分析和人脸特征比对三重校验,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,判断采集的图像与本人的相似度,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性。
49.下面结合各个实施例对本发明进行详细说明。
50.实施例一
51.根据本发明实施例,提供了一种生物特征的识别的方法实施例,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
52.在进行人脸识别时,需要先进行活体检测,活体检测用于判断该生物信息是否从具有生物活体特征的合法用户身上取得(尤其是通过视频检测终端前方是否为用户对象,区分用户对象是否为活体用户,防止用照片合成技术进行的干扰),活体检测主要是通过识别活体上的生理信息来进行,将生理信息作为活体特征来区分用平面照片、硅胶、塑料等非生命物质伪造的生物非活体特征。
53.图1是根据本发明实施例的一种可选的应用于服务器的生物特征的识别方法流程图,如图1所示,该方法包括如下步骤:
54.步骤s101,接收客户端上传的生物图像序列,其中,生物图像序列是指对目标对象进行视频采集后提取的图像序列;
55.步骤s102,分析生物图像序列中的表情标签、意图情绪和生物特征比对结果;
56.步骤s103,基于表情标签、意图情绪和生物特征比对结果中至少之一,确定识别置信度;
57.步骤s104,在识别置信度大于预设置信度阈值的情况下,将对目标对象进行生物安全识别的异常告知结果输出至客户端。
58.通过上述步骤,接收客户端上传的生物图像序列,其中,生物图像序列是指对目标对象进行视频采集后提取的图像序列;分析生物图像序列中的表情标签、意图情绪和生物特征比对结果;基于表情标签、意图情绪和生物特征比对结果中至少之一,确定识别置信度;在识别置信度大于预设置信度阈值的情况下,将对目标对象进行生物安全识别的异常告知结果输出至客户端。在本实施例中,包含了表情检测、意图情绪分析和人脸特征比对三重校验,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,进而解决了相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
59.下面结合上述各实施步骤来详细说明。
60.需要说明的是,本发明实施例以服务器为实施主体,该服务器类型包括但不限于:本地服务器、云端服务器(云端服务器通过虚拟化、集群技术进行资源整合,通过云端控制平台生成主机所需资源),服务器可以实现微表情分析、意图分析处理、人脸比对处理和结果判断等功能,服务器与客户端连接实现交互,在客户终端集成本地sdk(软件工具包)、在服务器中部署人脸识别安全增强服务,供客户端程序调用,客户端发起人脸识别请求后,驱动摄像设备采集用户人脸图像序列信息,然后调用服务器将加工提取后的图像信息发送到服务器(或者上送到服务器)进行人脸识别判断处理,最后接收服务器返回的识别结果,从而协同完成整个人脸识别流程,确保人脸识别应用的安全。
61.需要说明的是,在接收生物图像序列之前,需要先采集人脸信息,客户端在采集人脸图像信息时,通过封装人脸检测sdk(软件工具包),驱动摄像头设备,打开拍摄设备(例如,手机相机、指定摄像头)获取实时的视频流,通过多任务卷积神经网络获取当前图像中的人脸框,判断待识别人脸的角度、距离、遮挡情况是否都符合要求。检测通过则表示用户人脸已经准备就绪,否则根据角度、距离和遮挡的情况,分别提示用户正对屏幕、靠近(远离)屏幕、去除遮挡。
62.当人脸准备就绪后,客户端驱动摄像设备,打开摄像头获取实时的视频流,在用户对准人脸采集框时,按帧率(根据实际终端配置和网络传输速度自行设置)抽取符合人脸识别检测要求的正面人脸图像(对应于上述的根据指定帧率提取视频流中的符合生物识别检测要求的图像),该正面人脸图像中,包含了指定时间序列下的人脸面部肌肉微小变化及人脸表情信息。
63.本实施例中,在获取到人脸图像信息后,需要截取人脸图像中的面部关键信息,可以选取局部二值模式算法定位采集人脸图像的人脸正面位置,截取其中人脸所在区域的图像,并对不符合图像质量要求的图像进行丢弃,形成标准化图像序列,减少冗余信息的传输。
64.同时,为了保证信息的准确安全传输,还需要对图像序列进行压缩加密处理,本发明实施例中,在截取指定部位区域图像,得到生物图像序列之后,客户端采用行程编码策略压缩生物图像序列;客户端采用指定加密算法对压缩后的生物图像序列进行加密。
65.需要说明的是,行程编码策略和加密算法都可以自行选取,本实施例可通过行程编码(rle)对图像序列进行压缩,减少传输数据量;通过非对称加密算法sm2对数据进行加密,提升信息传输安全。
66.在编码和加密后,客户端会将加密后的生物图像序列传输至服务器,服务器通过接收加密的生物图像序列,完成生物特征的识别操作。
67.步骤s101,接收客户端上传的生物图像序列,其中,生物图像序列是指对目标对象进行视频采集后提取的图像序列。
68.将客户端采集获取的图像序列信息传送给服务器,通过服务器对该图像序列包含的信息进行分析处理。
69.步骤s102,分析生物图像序列中的表情标签、意图情绪和生物特征比对结果。
70.本发明实施例中,在步骤s102中,包括:将生物图像序列输入至指定深度学习模型,输出与生物图像序列中每张生物图像对应的表情标签;将表情标签输入至指定分析模型,输出每个表情标签对应的权重,结合表情标签的权重和所有表情标签的正态分布信息,
确定目标对象的意图情绪;采用生物特征提取算法提取与每张生物图像对应的特征向量值,将特征向量值与原始注册特征进行比对,得到生物特征比对结果。
71.需要说明的是,本发明实施例中涉及的表情标签是基于人脸微表情得到的,微表情是人类试图抑制或压抑真实情感时不经意泄露的短暂的、不能自主控制的面部表情,微表情能够反映用户应激后瞬时心理变化,是识别用户真实意图的重要线索,持续时间较短,一般仅为40ms
‑‑
200ms,肉眼往往难以察觉,而利用计算机视觉处理技术则能有效地进行检测识别,服务器在接收得到生物图像序列后,通过深度学习模型获取该表情标签,其中,表情标签根据需求自定义,其包括但不限于:悲伤、愤怒、开心、惊恐、恐惧、中立。
72.本发明实施例中,指定深度学习模型中神经网络使用的目标损失函数值,采用归一化损失函数与岛屿损失函数计算得到,其中,归一化损失函数,采用的计算元素包括:训练样本数、标签分类数和输出向量的图像元素,其中,训练样本数为历史时间段中历史生物图像与对应的历史表情标签形成的训练样本的总数量,标签分类数为统计的所有待分类表情标签的总数量,输出向量为神经网络的输出表情标签对应的向量;岛屿损失函数,采用的计算元素包括:训练样本数、样本特征向量、表情标签集合、表情标签中心、第一预设权重值。
73.其中,归一化损失函数计算公式如下:
[0074][0075]
其中,m表示训练样本数,n为表情标签分类数,zi表示所训练网络输出向量的第i个元素,zi表示所训练网络输出向量的第j个元素,ls为归一化损失函数值。
[0076]
在归一化损失函数的基础上,还存在一种岛屿损失函数,损失函数计算公式如下:
[0077][0078]
其中,m表示训练样本数,xi表示第i个样本的特征向量,c
yi
表示表情类别yi的特征中心,l
il
表示岛屿损失函数值,λ1是一个权重值,n为表情标签集合,cj和ck表示第j个和第k个表情标签中心,+1使得函数值范围在0到2之间,越接近0表示类别差异越大。
[0079]
因此,指定深度学习模型的目标损失函数值计算公式如下:
[0080]
l=ls+λl
il

[0081]
其中,λ为用于平衡归一化损失函数和岛屿损失函数的一个参数,l为指定深度学习模型的目标损失函数值,ls为归一化损失函数值,l
il
表示岛屿损失函数值。
[0082]
本发明实施例中,在对微表情进行处理获取得到表情标签后,还需要对目标对象的意图情绪进行分析,将上述步骤获取得到的表情标签输入至指定分析模型,输出每个表情标签对应的权重,结合表情标签的权重和所有表情标签的正态分布信息,确定目标对象的意图情绪。在将表情标签输入至指定分析模型,输出每个表情标签对应的权重之前,还包
括:采用期望最大算法对包含多个高斯分布函数的混合模型进行训练,得到指定分析模型。
[0083]
需要说明的是,高斯分布函数的混合模型包含了多个高斯分布函数,通过各个高斯概率密度函数加权求和得到计算结果,构建模型时,不同的微表情在模型中会产生不同程度的影响,通过应用高斯混合模型,使用期望最大算法进行训练,从而获得各个微表情的权重和模型概率值。
[0084]
本发明实施例中,结合表情标签的权重和所有表情标签的正态分布信息,确定目标对象的意图情绪的步骤,包括:结合表情标签的权重和所有表情标签的正态分布信息,确定与生物图像序列对应的意图置信值;在意图置信值处于指定异常情绪的置信区间内的情况下,则确认目标对象的心理状态异常,目标对象的意图情绪异常;在意图置信值处于指定正常情绪的置信区间内的情况下,则确认目标对象的心理状态正常,目标对象的意图情绪正常。
[0085]
需要说明的是,本实施例中以用户注册时采集的微表情图像序列作为比较的基准,与用户在人脸识别过程中的微表情图像序列进行比对,如果测出特征数据超出给出的置信水平(对应于上述异常情绪的置信区间),则判断待检测对象的心理状态存在意图情绪的异常,则说明此时用户的人脸识别场景存在风险,则本次人脸识别不予通过。
[0086]
本发明实施例中,采用生物特征提取算法提取与每张生物图像对应的特征向量值的步骤,包括:在生物特征为人脸特征的情况下,采用指定卷积神经网络提取生物图像中的人脸框;以人脸框为基准,采用指定人脸向量模型将生物图像中出现的人脸映射至多维空间向量,得到特征向量值。
[0087]
本发明实施例中,指定卷积神经网络采用多任务卷积神经网络,多任务卷积神经网络包括三个子网络:生成候选窗口的第一子网络、过滤候选窗口的第二子网络和生成最终边界框与人脸关键点的第三子网络。
[0088]
需要说明的是,在分析处理了表情标签和意图情绪后,还需要对人脸特征进行分析处理,将输入的人脸原始图像通过人脸特征提取算法提取人脸特征向量值,并与原先注册的人脸特征进行比对,判断相似度,以此来判断进行生物特征识别的用户是否为用户本人,通过卷积神经网络获取当前图像中的人脸框,该多任务神经网络模型主要采用了三个级联的网络,采用候选框加分类器的思想,进行快速高效的人脸检测,分别是快速生成候选窗口的p-net(对应于上述第一子网络)、进行高精度候选窗口过滤选择的r-net(对应于上述第二子网络)和生成最终边界框与人脸关键点的o-net(对应于上述第三子网络),然后将当前图像中提取的人脸图像映射到一个多维空间向量,网络直接输出为128维度的向量空间,即为特征向量值。最后将当前提取到的特征向量,与原先用户注册时生成的人脸特征向量进行内积运算,当两者的相似度结果大于所设阈值,则认为现场人脸识别的用户和注册时的用户为同一人,并在计算完成后返回最终的人脸特征比对相似度结果。
[0089]
步骤s103,基于表情标签、意图情绪和生物特征比对结果中至少之一,确定识别置信度。
[0090]
步骤s104,在识别置信度大于预设置信度阈值的情况下,将对目标对象进行生物安全识别的异常告知结果输出至客户端。
[0091]
需要说明的是,根据安全等级要求,提前设定置信度阈值,结合服务器返回的表情标签、意图情绪以及人脸特征比对的处理结果,得到最终的生物特征识别结果,该识别结果
包括但不限于:人脸是否与用户本人相符,用户是否具有生命特征、用户是否处于安全的人脸识别场景。
[0092]
通过上述实施例,包含了表情检测、意图情绪分析和人脸特征比对三重校验,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,并判断采集的图像与本人的相似度,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,进而解决了相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
[0093]
下面提供了一种应用于客户端的生物特征的识别方法的实施例。
[0094]
图2是根据本发明实施例的一种可选的应用于客户端的生物特征的识别方法流程图,如图2所示,包括以下步骤:
[0095]
步骤s201,在检测到目标对象对准采集框时,根据指定帧率提取视频流中符合生物识别检测要求的图像,得到提取图像集合,其中,视频流是指通过拍摄设备采集目标对象的视频;
[0096]
步骤s202,获取提取图像集合中每张图像的的指定部位正面区域,截取指定部位区域图像,得到生物图像序列;
[0097]
步骤s203,将生物图像序列发送至服务器,其中,服务器在接收生物图像序列之后,分析生物图像序列中的表情标签、意图情绪和生物特征比对结果,并确定对目标对象的生物安全识别结果。
[0098]
通过上述步骤,在检测到目标对象对准采集框时,根据指定帧率提取视频流中符合生物识别检测要求的图像,得到提取图像集合,其中,视频流是指通过拍摄设备采集目标对象的视频;获取提取图像集合中每张图像的的指定部位正面区域,截取指定部位区域图像,得到生物图像序列;将生物图像序列发送至服务器,其中,服务器在接收生物图像序列之后,分析生物图像序列中的表情标签、意图情绪和生物特征比对结果,并确定对目标对象的生物安全识别结果。在本实施例中,包含了表情检测、意图情绪分析和人脸特征比对三重校验,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,进而解决了相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
[0099]
下面结合上述各实施步骤来详细说明。
[0100]
本发明实施例中客户端与服务器建立连接,客户端包含人脸检测、数据采集、图像提取、数据压缩、数据加密等功能。客户端应用于各类终端,例如移动终端、pc端、图像采集设备等,客户终端包含有摄像录像设备和显示设备。
[0101]
步骤s201,在检测到目标对象对准采集框时,根据指定帧率提取视频流中符合生物识别检测要求的图像,得到提取图像集合,其中,视频流是指通过拍摄设备采集目标对象的视频。
[0102]
需要说明的是,在客户终端集成本地sdk(软件工具包),通过封装人脸检测sdk,驱动摄像头设备,打开摄像头获取实时的视频流,通过多任务卷积神经网络获取当前图像中的人脸框,判断待识别人脸的角度、距离、遮挡情况是否都符合要求。检测通过则表示用户人脸已经准备就绪,否则根据角度、距离和遮挡的情况,分别提示用户正对屏幕、靠近(远离)屏幕、去除遮挡。
[0103]
需要说明的是,在用户对准人脸采集框时,打开摄像头获取实时的视频流,按帧率抽取符合人脸识别检测要求的正面人脸图像。上述正面人脸图像中,包含了指定时间序列下的人脸面部肌肉微小变化及人脸表情信息。
[0104]
步骤s202,获取提取图像集合中每张图像的的指定部位正面区域,截取指定部位区域图像,得到生物图像序列。
[0105]
需要说明的是,在获取得到人脸图像后,截取其中人脸所在区域的图像,并对不符合图像质量要求的图像进行丢弃,形成标准化图像序列,减少冗余信息的传输。
[0106]
本发明实施例中,在截取指定部位区域图像,得到生物图像序列之后,还包括:采用行程编码策略压缩生物图像序列;采用指定加密算法对压缩后的生物图像序列进行加密。以此减少传输数据量并提升信息传输安全性。
[0107]
需要说明的是,行程编码策略和加密算法都可以自行选取,本实施例可通过行程编码(rle)对图像序列进行压缩,减少传输数据量;通过非对称加密算法sm2对数据进行加密,提升信息传输安全。
[0108]
步骤s203,将生物图像序列发送至服务器,其中,服务器在接收生物图像序列之后,分析生物图像序列中的表情标签、意图情绪和生物特征比对结果,并确定对目标对象的生物安全识别结果。
[0109]
在编码和加密后,客户端会将加密后的生物图像序列传输至服务器,服务器通过接收加密的生物图像序列,完成生物特征的识别操作。
[0110]
本发明实施例中,服务器在分析生物图像序列中的表情标签、意图情绪和生物特征比对结果时,包括:服务器将生物图像序列输入至指定深度学习模型,输出与生物图像序列中每张生物图像对应的表情标签;服务器将表情标签输入至指定分析模型,输出每个表情标签对应的权重,结合表情标签的权重和所有表情标签的正态分布信息,确定目标对象的意图情绪;服务器采用生物特征提取算法提取与每张生物图像对应的特征向量值,将特征向量值与原始注册特征进行比对,得到生物特征比对结果。
[0111]
本发明实施例中,指定部位正面区域至少包括:人脸正面区域。
[0112]
通过上述实施例,客户端对人脸图像进行处理,然后加密上送至服务器,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,并判断采集的图像与本人的相似度,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,进而解决了相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
[0113]
下面结合另一种可选的实施例来说明本发明。
[0114]
实施例二
[0115]
本实施例提供了一种生物特征的识别系统,该生物特征的识别系统所包含的各个实施模块对应于实施例一中的各个实施步骤。
[0116]
图3是根据本发明实施例的一种可选的生物特征的识别系统结构框图,如图3所示,该生物特征的识别系统包括:
[0117]
客户端,与拍摄设备连接,在接收拍摄设备传输的视频流后,执行任意一项生物特征的识别方法;
[0118]
服务器,与客户端连接,执行任意一项生物特征的识别方法;或云端服务器,与客
户端连接,执行任意一项生物特征的识别方法。
[0119]
下面结合具体的实施例来说明本发明。
[0120]
本发明实施例提供了一种基于微表情和意图分析的生物特征的识别系统,其中,客户端包含人脸检测、数据采集、图像提取和数据压缩加密等功能;服务器(或云端服务器)与客户端通过网络连接,包含微表情分析、意图分析处理、人脸比对处理以及识别结果处理等功能。
[0121]
在客户终端集成本地sdk,在服务器中部署人脸识别安全增强服务,供客户端程序调用。客户端发起人脸识别请求后,驱动摄像设备采集用户人脸图像序列信息,然后调用服务器(或云端服务器)将加工提取后的图像信息上送到服务器进行人脸识别判断处理,最后接收服务器(或云端服务器)返回的识别结果,从而协同完成整个人脸识别流程,确保人脸识别应用的安全。
[0122]
用户通过客户端发起人脸识别请求,客户端在待检测人脸准备就绪后,通过控制设备摄像头采集用户人脸图像序列信息,最后将加工提取后的图像信息上送到服务器(或云端服务器)进行人脸识别判断。服务器(或云端服务器)在收到客户端上送的图像信息数据包后,对图像信息中的微表情及意图情绪进行分析处理,并完成人脸特征提取及比对判断,最终返回人脸识别处理结果,以提升线上人脸识别应用的安全性,具体包括以下步骤:
[0123]
步骤一:用户发起人脸识别请求,客户端对设备摄像头等参数内容进行校验,校验不通过则直接返回对应的报错信息,校验通过则进入下一步。
[0124]
通过封装人脸检测sdk,驱动摄像头设备,打开摄像头获取实时的视频流,通过多任务卷积神经网络获取当前图像中的人脸框,判断待识别人脸的角度、距离、遮挡情况是否都符合要求。检测通过则表示用户人脸已经准备就绪,否则根据角度、距离和遮挡的情况,分别提示用户正对屏幕、靠近(远离)屏幕、去除遮挡。
[0125]
步骤二:客户端调起设备摄像头,引导用户对准人脸采集框,在待检测人脸准备就绪后,按照设定的采集频率参数采集人脸图像,形成人脸图像序列帧,此处的图像帧数可通过参数化设置。
[0126]
驱动摄像头设备,打开摄像头获取实时的视频流,在用户对准人脸采集框时,按帧率抽取符合人脸识别检测要求的正面人脸图像,其中正面人脸图像中,包含了指定时间序列下的人脸面部肌肉微小变化及人脸表情信息。
[0127]
截取人脸图像中的面部关键信息,利用局部二值模式算法定位采集人脸图像的人脸正面位置,截取其中人脸所在区域的图像,对不符合图像质量要求的图像进行丢弃,形成标准化图像序列,减少冗余信息的传输。
[0128]
步骤三,客户端对采集到的人脸图像序列帧进行图片质量检测,加工形成标准化图像序列,并将加工后的图像信息进行压缩、加密,然后上送到服务器。
[0129]
通过行程编码对图像序列进行压缩,减少传输数据量;通过非对称加密算法sm2对数据进行加密,提升信息传输安全。
[0130]
步骤四,服务器在收到客户端上送的人脸图像序列数据包后,对图像信息进行处理分析,判断微表情动作变化、检测意图情绪异常情况以及对比人脸特征相似度,从而完成人脸识别检测判断,最后将识别结果返回客户端。
[0131]
服务器首先对输入的人脸图像序列出现的微表情信息及面部肌肉微小变化进行
分析处理,采用深度学习模型进行模型训练构造,根据应用需要自定义不同表情标签,例如悲伤、愤怒、惊讶、恐惧、恶心、中立和高兴等,采用基于多层卷积神经网络的结构,损失函数采用归一化指数函数结合岛屿损失函数的计算方式,其中:
[0132]
归一化损失函数计算公式如下:
[0133][0134]
其中,m表示训练样本数,n为表情标签分类数,zi表示所训练网络输出向量的第i个元素,zi表示所训练网络输出向量的第j个元素,ls为归一化损失函数值。
[0135]
在归一化损失函数的基础上,还存在一种岛屿损失函数,损失函数计算公式如下:
[0136][0137]
其中,m表示训练样本数,xi表示第i个样本的特征向量,c
yi
表示表情类别yi的特征中心,l
il
表示岛屿损失函数值,λ1是一个权重值,n为表情标签集合,cj和ck表示第j个和第k个表情标签中心,+1使得函数值范围在0到2之间,越接近0表示类别差异越大。
[0138]
因此,指定深度学习模型的目标损失函数值计算公式如下:
[0139]
l=ls+λl
il

[0140]
其中,λ为用于平衡归一化损失函数和岛屿损失函数的一个参数,l为指定深度学习模型的目标损失函数值,ls为归一化损失函数值,l
il
表示岛屿损失函数值。
[0141]
其次,还需要对意图情绪进行分析处理,分析输入的人脸图像序列中出现的意图情绪从而判断用户人脸识别场景是否存在风险,在生成的微表情数据基础上,基于聚类算法高斯混合模型构建分析模型,该方法包含了多个高斯分布函数,由各个高斯概率密度函数加权求和得到最终计算结果,在构建时,不同微表情在模型中会产生不同程度的影响,通过应用高斯混合模型,使用期望最大算法进行训练,从而获得各个微表情的权重和模型概率值。同时,结合正态分布原则,具体的,有68.2%的点落在
±
1个标准差的范围内,约有95.5%的点落在
±
2个标准差的范围内,约有99.7%的点落在
±
3个标准差的范围内,获取计算结果后,以用户注册人脸时采集的微表情图像序列作为比较的基准,与用户在人脸识别过程中的微表情图像序列进行比较,如果测出特征数据超出设定的一个置信水平,则判断待检测对象的心理状态存在意图情绪的异常。
[0142]
最后,还需要对用户人脸特征进行分析处理,将输入的人脸原始图像通过人脸特征提取算法提取人脸特征向量值,并与原先注册的人脸特征进行比对,判断相似度。通过多任务卷积神经网络获取当前图像中的人脸框,该多任务神经网络模型主要采用了三个级联的网络(采用候选框加分类器的思想,进行快速高效的人脸检测):分别是快速生成候选窗口的p-net、进行高精度候选窗口过滤选择的r-net和生成最终边界框与人脸关键点的o-net。通过人脸训练模型提取当前图像中的人脸将其映射到一个多维空间向量,输出为128
维度的向量空间,得到人脸特征向量。将当前提取到的特征向量,与原先用户注册时生成的人脸特征向量进行内积运算,当两者的相似度结果大于所设阈值,则认为现场人脸照和注册人脸照的人脸是同一个人脸,并在计算完成后返回最终的人脸特征比对相似度结果。
[0143]
融合微表情分析、意图分析和人脸相似度分析结果,基于提前设定的置信度阈值判断最终识别结果,该结果包括:人脸是否与用户本人相符,用户是否具有生命特征、用户是否处于安全的人脸识别场景,最后,服务器将识别结果返回客户端。
[0144]
步骤五,客户端接收服务器处理结果,提示用户最终人脸识别处理是否通过,完成处理流程。
[0145]
本发明实施例中,包含了表情检测、意图情绪分析和人脸特征比对三重校验,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,并判断采集的图像与本人的相似度,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,且本公开中的生物特征识别方法,不依赖特定设备硬件,可在手机等客户端设备上进行应用,无需增加用户成本,具备大范围推广应用的基础,另外在人脸识别过程中,用户只需配合正对设备屏幕的人脸采集框,整个过程简单方便,无需大幅度的动作配合,大大提升用户使用体验。
[0146]
下面结合另一种可选的实施例来说明本发明。
[0147]
实施例三
[0148]
本实施例提供了一种生物特征的识别装置,该生物特征的识别装置所包含的各个实施单元对应于实施例一中的各个实施步骤。
[0149]
图4是根据本发明实施例的一种可选的应用于服务器的生物特征的识别装置的示意图,如图4所示,该生物特征的识别装置包括:接收单元41、分析单元42、确定单元43、输出单元44,其中,
[0150]
接收单元41,用于接收客户端上传的生物图像序列,其中,生物图像序列是指对目标对象进行视频采集后提取的图像序列;
[0151]
分析单元42,用于分析生物图像序列中的表情标签、意图情绪和生物特征比对结果;
[0152]
确定单元43,用于基于表情标签、意图情绪和生物特征比对结果中至少之一,确定识别置信度;
[0153]
输出单元44,用于在识别置信度大于预设置信度阈值的情况下,将对目标对象进行生物安全识别的异常告知结果输出至客户端。
[0154]
上述生物特征的识别装置,通过接收单元接收客户端上传的生物图像序列,其中,生物图像序列是指对目标对象进行视频采集后提取的图像序列;通过分析单元分析生物图像序列中的表情标签、意图情绪和生物特征比对结果;通过确定单元43基于表情标签、意图情绪和生物特征比对结果中至少之一,确定识别置信度;通过输出单元44在识别置信度大于预设置信度阈值的情况下,将对目标对象进行生物安全识别的异常告知结果输出至客户端。在本实施例中,包含了表情检测、意图情绪分析和人脸特征比对三重校验,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,进而解决了相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
[0155]
可选地,所述分析单元包括:第一输入模块,用于将所述生物图像序列输入至指定深度学习模型,输出与所述生物图像序列中每张生物图像对应的所述表情标签;第一确定模块,用于将所述表情标签输入至指定分析模型,输出每个所述表情标签对应的权重,结合所述表情标签的权重和所有表情标签的正态分布信息,确定所述目标对象的所述意图情绪;第一提取模块,用于采用生物特征提取算法提取与所述每张生物图像对应的特征向量值,将所述特征向量值与原始注册特征进行比对,得到所述生物特征比对结果。
[0156]
可选地,所述指定深度学习模型中神经网络使用的目标损失函数值,采用归一化损失函数与岛屿损失函数计算得到,其中,所述归一化损失函数,采用的计算元素包括:训练样本数、标签分类数和输出向量的图像元素,其中,所述训练样本数为历史时间段中历史生物图像与对应的历史表情标签形成的训练样本的总数量,所述标签分类数为统计的所有待分类表情标签的总数量,所述输出向量为神经网络的输出表情标签对应的向量;所述岛屿损失函数,采用的计算元素包括:训练样本数、样本特征向量、表情标签集合、表情标签中心、第一预设权重值。
[0157]
可选地,所述分析单元还包括:第一训练模块,用于采用期望最大算法对包含多个高斯分布函数的混合模型进行训练,得到所述指定分析模型。
[0158]
可选地,所述第一确定模块包括:第一确定子模块,用于结合所述表情标签的权重和所有表情标签的正态分布信息,确定与所述生物图像序列对应的意图置信值;第一确认子模块,用于在所述意图置信值处于指定异常情绪的置信区间内的情况下,则确认所述目标对象的心理状态异常,所述目标对象的意图情绪异常;第二确认子模块,用于在所述意图置信值处于指定正常情绪的置信区间内的情况下,则确认所述目标对象的心理状态正常,所述目标对象的意图情绪正常。
[0159]
可选地,所述第一提取模块包括:第一提取子模块,用于在所述生物特征为人脸特征的情况下,采用指定卷积神经网络提取所述生物图像中的人脸框;第一映射子模块,用于以所述人脸框为基准,采用指定人脸向量模型将所述生物图像中出现的人脸映射至多维空间向量,得到所述特征向量值。
[0160]
可选地,所述指定卷积神经网络采用多任务卷积神经网络,所述多任务卷积神经网络包括三个子网络:生成候选窗口的第一子网络、过滤候选窗口的第二子网络和生成最终边界框与人脸关键点的第三子网络。
[0161]
图5是根据本发明实施例的一种可选的应用于客户端的生物特征的识别装置的示意图,该生物特征的识别装置应用于客户端,如图5所示,其包含检测单元51、获取单元52、发送单元53,其中,
[0162]
检测单元51,用于在检测到目标对象对准采集框时,根据指定帧率提取述视频流中符合生物识别检测要求的图像,得到提取图像集合,其中,视频流是指通过拍摄设备采集目标对象的视频;
[0163]
获取单元52,用于获取提取图像集合中每张图像的的指定部位正面区域,截取指定部位区域图像,得到生物图像序列;
[0164]
发送单元53,用于将生物图像序列发送至服务器,其中,服务器在接收生物图像序列之后,分析生物图像序列中的表情标签、意图情绪和生物特征比对结果,并确定对目标对象的生物安全识别结果。
[0165]
上述生物特征的识别装置,通过检测单元51在检测到目标对象对准采集框时,根据指定帧率提取述视频流中符合生物识别检测要求的图像,得到提取图像集合,其中,视频流是指通过拍摄设备采集目标对象的视频;通过获取单元52获取提取图像集合中每张图像的的指定部位正面区域,截取指定部位区域图像,得到生物图像序列;通过发送单元53将生物图像序列发送至服务器,其中,服务器在接收生物图像序列之后,分析生物图像序列中的表情标签、意图情绪和生物特征比对结果,并确定对目标对象的生物安全识别结果。在本实施例中,通过微表情和意图情绪进行活体检测,不仅可以防御照片活化等攻击,还可以分析用户人脸识别时的意图情绪异常情况,提升人脸识别的安全性和可靠性,进而解决了相关技术中,通过动作活体检测进行生物特征识别的安全性不足的技术问题。
[0166]
可选地,生物特征的识别装置还包括:第一压缩模块,用于采用行程编码策略压缩生物图像序列;第一加密模块,用于采用指定加密算法对压缩后的生物图像序列进行加密。
[0167]
可选地,生物特征的识别装置还包括:第二输入模块,用于服务器将生物图像序列输入至指定深度学习模型,输出与生物图像序列中每张生物图像对应的表情标签;第二确定模块,用于服务器将表情标签输入至指定分析模型,输出每个表情标签对应的权重,结合表情标签的权重和所有表情标签的正态分布信息,确定目标对象的意图情绪;第二提取模块,用于服务器采用生物特征提取算法提取与每张生物图像对应的特征向量值,将特征向量值与原始注册特征进行比对,得到生物特征比对结果。
[0168]
可选地,指定部位正面区域至少包括:人脸正面区域。
[0169]
上述的生物特征的识别装置还可以包括处理器和存储器,上述接收单元41、分析单元42、确定单元43、输出单元44等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
[0170]
上述处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数对生物特征进行识别。
[0171]
上述存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(ram)和/或非易失性内存等形式,如只读存储器(rom)或闪存(flash ram),存储器包括至少一个存储芯片。
[0172]
根据本发明实施例的另一方面,还提供了一种计算机可读存储介质,计算机可读存储介质包括存储的计算机程序,其中,在计算机程序运行时控制计算机可读存储介质所在设备执行上述任意一项生物特征的识别方法。
[0173]
根据本发明实施例的另一方面,还提供了一种电子设备,包括一个或多个处理器和存储器,存储器用于存储一个或多个程序,其中,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现上述任意一项生物特征的识别方法。
[0174]
本技术还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:接收客户端上传的生物图像序列,其中,生物图像序列是指对目标对象进行视频采集后提取的图像序列;分析生物图像序列中的表情标签、意图情绪和生物特征比对结果;基于表情标签、意图情绪和生物特征比对结果中至少之一,确定识别置信度;在识别置信度大于预设置信度阈值的情况下,将对目标对象进行生物安全识别的异常告知结果输出至客户端。
[0175]
图6是根据本发明实施例的一种生物特征的识别方法的电子设备(或移动设备)的
硬件结构框图。如图6所示,电子设备可以包括一个或多个(图中采用602a、602b,
……
,602n来示出)处理器602(处理器602可以包括但不限于微处理器mcu或可编程逻辑器件fpga等的处理装置)、用于存储数据的存储器604。除此以外,还可以包括:显示器、输入/输出接口(i/o接口)、通用串行总线(usb)端口(可以作为i/o接口的端口中的一个端口被包括)、网络接口、键盘、电源和/或相机。本领域普通技术人员可以理解,图6所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,电子设备还可包括比图6中所示更多或者更少的组件,或者具有与图6所示不同的配置。
[0176]
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0177]
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0178]
在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
[0179]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0180]
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0181]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
[0182]
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1