一种活体攻击检测方法、装置、存储介质、产品及电子设备与流程

文档序号:32610933发布日期:2022-12-20 19:54阅读:40来源:国知局
一种活体攻击检测方法、装置、存储介质、产品及电子设备与流程

1.本说明书涉及计算机技术领域,尤其涉及一种活体攻击检测方法、装置、存储介质、产品及电子设备。


背景技术:

2.人脸识别技术在日常生活中被广泛地应用于移动支付、账号登录等需要进行身份识别的领域,判断用户交互为真人交互还是恶意的活体攻击显得尤为重要。现有技术中通常控制终端设备屏幕爆亮,从而对用户人脸进行打光来提取用户面部信息实现人脸识别,爆亮容易损伤用户眼部,且对环境光要求较高,在环境光较亮的情况下面部信息获取容易出错,需要提供一种更为便捷且适用多种场景的活体攻击检测方法。


技术实现要素:

3.本说明书实施例提供了一种活体攻击检测方法、装置、存储介质及电子设备,可以通过捕捉用户注视区域,判断用户注视区域变换顺序与显示区域变换顺序是否一致进行活体攻击检测,提高活体攻击检测对环境的抗干扰性,从而提高活体攻击检测的便捷性和准确性。所述技术方案如下:
4.第一方面,本说明书实施例提供了一种活体攻击检测方法,所述方法包括:
5.基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示;
6.获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序;
7.若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。
8.第二方面,本说明书实施例提供了一种活体攻击检测装置,所述装置包括:
9.图案显示模块,用于基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示;
10.视频获取模块,用于获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序;
11.交互检测模块,用于若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。
12.第三方面,本说明书实施例提供一种计算机存储介质,所述计算机存储介质存储有多条指令,所述指令适于由处理器加载并执行上述的方法步骤
13.第四方面,本说明书实施例提供一种计算机程序产品,所述计算机程序产品存储有多条指令,所述指令适于由处理器加载并执行上述的方法步骤。
14.第五方面,本说明书实施例提供一种电子设备,可包括:处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行上述的方法步骤。
15.在本说明书一个或多个实施例中,基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示,获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序,若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。通过捕捉用户注视区域,判断用户注视区域变换顺序与显示区域变换顺序是否一致进行活体攻击检测,提高了活体攻击检测对环境的抗干扰性,从而提高了活体攻击检测的便捷性和准确性。
附图说明
16.为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
17.图1是本说明书实施例提供的一种终端界面的举例示意图;
18.图2是本说明书实施例提供的一种活体攻击检测方法的流程示意图;
19.图3是本说明书实施例提供的一种活体攻击检测方法的流程示意图;
20.图4是本说明书实施例提供的一种图案显示的举例示意图;
21.图5是本说明书实施例提供的一种人眼区域获取的举例示意图;
22.图6是本说明书实施例提供的一种活体攻击检测装置的结构示意图;
23.图7是本说明书实施例提供的一种活体攻击检测装置的结构示意图;
24.图8是本说明书实施例提供的一种电子设备的结构示意图。
具体实施方式
25.下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
26.活体攻击检测装置可以为手机、平板电脑、可穿戴设备或车载设备等具有摄像功能的终端设备,也可以为终端设备中实现活体攻击检测方法的模块,终端设备可以使用摄像功能采集周围的影像,并根据影像中所包含的人像信息对用户进行人脸识别处理,并判断人像信息中的人像是否为终端设备的用户,但是为了防止终端设备的人脸识别处理功能被软件程序、视频等并非用户真人交互的手段进行活体攻击,活体攻击检测装置可以针对用户交互进行活体攻击检测。当终端设备准备调用人脸识别处理功能时,可以生成活体攻击检测指令,当活体攻击检测装置获取到活体攻击检测指令后,可以随机生成显示区域变换顺序,并在终端设备的终端界面上显示视线追随提示信息,视线追随提示信息用于提示用户视线追随着图案变换进行移动,所述显示区域变换顺序为图案在显示区域上进图案显示的顺序。
27.活体攻击检测装置可以根据显示区域变换顺序在终端界面的显示区域上依次进行图案显示,然后在获得了用户授权的情况下,调用终端设备的摄像功能获取用户在图案显示过程中的用户交互视频,用户交互视频中包含用户面部,记录了用户视线跟随图案变
换进行移动的过程,活体攻击检测装置可以根据用户交互视频找到用户眼睛的注视区域,并获取用户的注视区域变换顺序,注视区域即为用户正在注视着的终端界面上的某一个显示区域。终端界面上可以存在至少一个显示区域,显示区域为用于在活体攻击检测期间进行图案显示的区域,每个显示区域均不存在重叠部分,可以理解的是为了使得捕捉到的注视区域变化更加明显,显示区域可以分布在终端界面的顶点上,例如左上角、右上角、左下角和右下角。活体攻击检测装置每次在显示区域上进行图案显示的图案可以相同也可以不同。
28.可以理解的是,终端设备可以在进行人脸识别处理之前生成活体攻击检测指令,得到检测结果为真人交互后再进行人脸识别处理,终端设备也可以先进行人脸识别处理,当人脸识别处理通过后再生成活体攻击检测指令。
29.请一并参见图1,为本说明书实施例提供了一种终端界面的举例示意图,活体攻击检测装置在获取到活体攻击检测指令后可以在终端界面上显示视线追随提示信息,可以理解的是在开始进行图案显示后视线追随提示信息可以持续在终端界面上进行显示,可以关闭视线追随提示信息。活体攻击检测装置可以设置至少一个显示区域,如图1所示终端界面上可以存在四个显示区域,即显示区域a、显示区域b、显示区域c和显示区域d,分别位于终端界面的左上角、右上角、左下角和右下角的位置。活体攻击检测装置可以随机生成显示区域变换顺序,并根据显示区域变换顺序在终端界面的显示区域上依次进行图案显示,例如显示区域变换顺序可以为acbd,即依次在显示区域a、显示区域c、显示区域b、显示区域d上进行图案显示,显示区域变换顺序也可以为abbad,即依次在显示区域a、显示区域b、显示区域b、显示区域a、显示区域d上进行图案显示,图案在显示区域上的进行图案显示的总次数可以与显示区域的个数相同,也可以与显示区域的个数不相同,在任一显示区域上进行图案显示的次数可以等于1也可以大于1,也可以为0。
30.下面结合具体的实施例对本说明书提供的活体攻击检测方法进行详细说明。
31.请参见图2,为本说明书实施例提供了一种活体攻击检测方法的流程示意图。如图2所示,本说明书实施例的所述方法可以包括以下步骤s102-s106。
32.s102,基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示。
33.具体的,当终端设备准备调用人脸识别处理功能时,终端设备可以生成活体攻击检测指令,当活体攻击检测装置获取到活体攻击检测指令后,可以生成显示区域变换顺序,并基于显示区域变换顺序,在终端界面上的至少一个显示区域上依次进行图案显示。可以理解的是限时区域变换顺序可以由活体攻击检测装置随机生成,进一步保证了活体攻击检测的准确性。
34.s104,获取图案显示过程中所采集到的用户交互视频,获取用户交互视频所对应的注视区域变换顺序。
35.具体的,活体攻击检测装置可以根据显示区域变换顺序在终端界面的显示区域上依次进行图案显示,此时用户会基于终端界面上所显示的视线追随提示信息,用户视线会追随着图案的变换进行移动,例如,若图案在目标显示区域上进行图案显示,用户的视线就会注视在目标显示区域上,这个目标显示区域也就是用户当前的注视区域,所述目标显示区域可以为至少一个显示区域中的任一显示区域。活体攻击检测装置在获得了用户授权的
情况下,调用终端设备的摄像功能获取用户在图案显示过程中的用户交互视频,用户交互视频中包含用户面部,记录了用户视线跟随图案变换进行移动的过程。
36.活体攻击检测装置可以获取图案显示过程中每次显示区域更换,在用户交互视频中所对应的关键帧,即每次由于图案显示的显示区域进行更换,用户视线进行移动,所对应的那一帧图像。然后活体攻击检测装置可以获取各关键帧中用户视线所对应的注视区域,按照时间顺序对各关键帧对应的注视区域进行排序,获得用户交互视频所对应的注视区域变换顺序。
37.s106,若显示区域变换顺序与注视区域变换顺序不匹配,则确认用户交互视频的检测结果为活体攻击。
38.具体的,活体攻击检测装置可以根据显示区域变化顺序与注视区域变换顺序得到用户交互视频的检测结果,若显示区域变换顺序与注视区域变换顺序不匹配,则确认用户交互视频的检测结果为活体攻击,反之,若显示区域变换顺序与注视区域变换顺序相匹配,则确认用户交互视频的检测结果为真人交互。可以理解的是,显示区域变换顺序与注视区域变换顺序相匹配,即为显示区域变换顺序与注视区域变换顺序完全相同,显示区域变换顺序与注视区域变换顺序不匹配,即为显示区域变换顺序与注视区域变换顺序不完全相同或完全不相同。
39.在本说明书实施例中,基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示,获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序,若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。通过捕捉用户注视区域,判断用户注视区域变换顺序与显示区域变换顺序是否一致进行活体攻击检测,提高了活体攻击检测对环境的抗干扰性,从而提高了活体攻击检测的便捷性和准确性。
40.请参见图3,为本说明书实施例提供了一种活体攻击检测方法的流程示意图。如图3所示,本说明书实施例的所述方法可以包括以下步骤s202-s216。
41.s202,获取活体攻击检测指令,随机生成显示区域变换顺序,在终端界面上显示视线追随提示信息。
42.具体的,当终端设备准备调用人脸识别处理功能时,终端设备可以生成活体攻击检测指令,当活体攻击检测装置获取到活体攻击检测指令后,可以生成显示区域变换顺序,并基于显示区域变换顺序,在终端界面上的至少一个显示区域上依次进行图案显示。可以理解的是限时区域变换顺序可以由活体攻击检测装置随机生成,进一步保证了活体攻击检测的准确性。
43.可选的,视线追随提示信息可以弹窗、任务窗口等形式在终端界面上进行显示,视线追随提示信息可以在第一预设时长后不再显示,也可以在接收到用户发出的关闭指令后关闭,其中第一预设时长可以为活体攻击检测装置的初始设置,也可以由用户或者相关工作人员进行设置。
44.可选的,视线追随提示信息除了可以在终端界面上进行显示,还可以以语音播报的形式传递给用户,可以理解的是,视线追随提示信息可以在终端界面上进行显示并同步进行语音播报。
45.s204,基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案
显示。
46.具体的,活体攻击检测装置可以根据显示区域变换顺序在终端界面的显示区域上依次进行图案显示,此时用户会基于终端界面上所显示的视线追随提示信息,用户视线会追随着图案的变换进行移动,例如,若图案在目标显示区域上进行图案显示,用户的视线就会注视在目标显示区域上,这个目标显示区域也就是用户当前的注视区域,所述目标显示区域可以为至少一个显示区域中的任一显示区域。
47.可选的,活体攻击检测装置可以在终端界面的第一显示区域中进行的图案显示,当在第一显示区域上的图案显示的显示时长满足第二预设时长后,结束在第一显示区域上的图案显示、第一显示区域上的图案消失,然后活体攻击检测装置可以在第二显示区域上进行图案显示,同样的,当在第二显示区域上的图案显示的显示时长满足第二预设时长后,结束在第二显示区域上的图案显示、第二显示区域上的图案消失。其中,第一显示区域可以为显示区域变换顺序里任一排序不为排序最末位的显示区域,第二显示区域为在显示区域变换顺序里排在第一显示区域后一位的显示区域,第一显示区域与第二显示区域可以为不同的显示区域,也可以为相同的显示区域。第二预设时长可以为活体攻击检测装置的初始设置,也可以由用户或者相关工作人员进行设置,例如可以为1s。
48.可选的,活体攻击检测装置每次进行图案显示的图案可以相同也可以不相同,例如图案可以为数字,比如可以为当前进行图案显示的显示区域在显示区域变换顺序里的位数,若第一显示区域在显示区域变换顺序里排第3位,则活体攻击检测装置在第一显示区域上显示的图案可以为数字“3”,然后在第二显示区域上显示的图案可以为数字“4”。请一并参见图4,为本说明书实施例提供了一种图案显示的举例示意图,若终端界面中共有显示区域a、显示区域b、显示区域c和显示区域d四个显示区域,活体攻击检测装置随机生成的显示区域变换顺序为bcca,即依次在显示区域b、显示区域c、显示区域c和显示区域a上进行图案显示,例如图4可以先在显示区域b上显示数字“1”,然后在显示区域c上显示数字“2”,再在显示区域c上显示数字“3”,最后在显示区域a上显示数字“4”。
49.s206,获取图案显示过程中所采集到的用户交互视频。
50.具体的,活体攻击检测装置在获得了用户授权的情况下,可以调用终端设备的摄像功能获取用户在图案显示过程中的用户交互视频,用户交互视频中包含用户面部,记录了用户视线跟随图案变换进行移动的过程。
51.s208,获取用户交互视频中图案显示过程所对应的关键帧集合,获取关键帧集合中各关键帧对应的注视区域。
52.具体的,活体攻击检测装置可以获取图案显示过程中每次显示区域更换,在用户交互视频中所对应的关键帧,即每次由于图案显示的显示区域进行更换,用户视线进行移动,所对应的那一帧图像,然后将关键帧保存在关键帧集合中,并获取关键帧集合中各关键帧中用户视线所对应的注视区域。
53.可选的,活体攻击检测装置可以获取图案显示过程中每次显示区域更换对应的时间戳,基于时间戳在用户交互视频中获取每次显示区域更换对应的关键帧。考虑到用户视线跟随图案进行变化可能存在一定时间的延迟,活体攻击检测装置可以在用户交互视频中获取在时间戳之后,并与时间戳间隔第三预设时长的关键帧,第二预设时长可以为活体攻击检测装置的初始设置,也可以由用户或者相关工作人员进行设置,例如可以为20ms。
54.可选的,活体攻击检测装置除了可以根据每次显示区域更换对应的时间戳来找到关键帧,还可以通过对比用户交互视频中的每一帧图像的相似度找到关键帧。可以理解的是,当图案显示过程中发生了显示区域的更换,用户视线也会由于追随图案变化而导致用户交互视频中的用户面部发生变化,活体攻击检测装置可以获取目标图像帧与第一关键帧之间的相似度,若目标图像帧与第一关键帧之间的相似度小于或等于预设相似度,则确认目标图像帧为第二关键帧,目标图像帧为第一关键帧之后的图像帧,第一关键帧为用户交互视频中的任一关键帧,第二关键帧为与第一关键帧相邻且排在第一关键帧之后的关键帧。
55.可选的,活体攻击检测装置获取关键帧集合中的目标关键帧,获取目标关键帧中的人眼区域,人眼区域为用户面部中包含眼睛的区域,也可以为仅包含用户眼睛的区域,目标关键帧为关键帧集合中的任一关键帧,然后基于注视点分类模型,获取人眼区域对应的注视区域,该注视区域即为目标关键帧中用户视线所注视的显示区域。
56.注视点分类模型可以用于获取人眼区域对应的注视区域,将人眼区域输入注视点分类模型,注视点分类模型可以输出人眼区域所对应的注视区域。在进行活体攻击检测之前,活体攻击检测装置可以基于注视点样本训练集对初始模型进行训练处理,获得注视点分类模型,注视点样本训练集中包括至少一个样本人眼区域和至少一个样本人眼区域中各样本人眼区域对应的注视区域,活体攻击检测装置将至少一个样本人眼区域作为输入,将至少一个样本人眼区域中各样本人眼区域对应的注视区域作为输出对初始模型进行训练处理。
57.可选的,活体攻击检测装置可以对关键帧集合中的目标关键帧进行人脸检测处理,从而获得目标关键帧中的人脸区域,人脸区域即为目标关键帧中仅包含用户面部的区域,从而缩小范围使得人眼区域的获取更为准确,然后获取人脸区域中的五官关键点,基于五官关键点获取目标关键帧中的人眼区域,五官关键点可以为左眼、右眼、鼻子、左嘴角和右嘴角,活体攻击检测装置可以根据左眼和右眼对应的关键点获取目标关键帧中的人眼区域。
58.请一并参见图5,为本说明书实施例提供了一种人眼区域获取的举例示意图,活体攻击检测装置可以对目标关键帧进行人脸检测处理获得目标关键帧的人脸区域,然后获取人脸区域上的五官关键点,如图5所示五官关键点为左眼、右眼、鼻子、左嘴角和右嘴角,基于五官关键点找到目标关键帧中的人眼区域。
59.s210,按照时间顺序对各关键帧对应的注视区域进行排序,获得用户交互视频所对应的注视区域变换顺序。
60.具体的,活体攻击检测装置可以按照时间顺序对各关键帧对应的注视区域进行排序,即按照各关键帧在用户交互视频中的先后顺序,对各关键帧对应的注视区域进行排序,获得用户交互视频所对应的注视区域变换顺序。
61.可选的,活体攻击检测装置除了可以获取图案显示过程中每次显示区域更换,在用户交互视频中所对应的关键帧,还可以在相邻的关键帧之间多获取预设数目的图像帧,并获取图像帧中人眼区域对应的注视区域,与关键帧中对应的注视区域相结合,在获取注视区域变换顺序的基础上,由于增加需要获取注视区域的图像帧,可以得到用户视线移动的动线,提高了活体攻击检测的准确性。
62.s212,判断显示区域变换顺序与注视区域变换顺序是否匹配。
63.具体的,活体攻击检测装置可以根据显示区域变化顺序与注视区域变换顺序得到用户交互视频的检测结果,可以判断显示区域变换顺序与注视区域变换顺序是否匹配,显示区域变换顺序与注视区域变换顺序相匹配,即为显示区域变换顺序与注视区域变换顺序完全相同,显示区域变换顺序与注视区域变换顺序不匹配,即为显示区域变换顺序与注视区域变换顺序不完全相同或完全不相同。若显示区域变换顺序与注视区域变换顺序相匹配,则执行步骤s214;若显示区域变换顺序与注视区域变换顺序不匹配,则执行步骤s216。
64.s214,确认用户交互视频的检测结果为真人交互。
65.具体的,若显示区域变换顺序与注视区域变换顺序相匹配,则确认用户交互视频的检测结果为真人交互。表示终端设备可以对用户进行人脸识别处理,或者终端设备对用户的人脸识别处理结果是可以被信任的。
66.s216,确认用户交互视频的检测结果为活体攻击。
67.具体的,若显示区域变换顺序与注视区域变换顺序不匹配,则确认用户交互视频的检测结果为活体攻击。表示终端设备不需要再对用户进行人脸识别处理,或者终端设备对用户的人脸识别处理结果是不可信的。
68.可选的,除了可以通过判断显示区域变换顺序与注视区域变换顺序是否匹配,即通过注视交互的方式进行活体攻击检测,在注视交互的基础上还可以结合炫彩交互的方式进行活体攻击检测,炫彩交互为通过爆亮屏幕的方式对人脸进行多颜色打光,从而提取交互信息,基于交互信息判断为活体攻击还是真人交互,提高了活体攻击检测的复杂性,从而提升了活体攻击检测结果的准确性。
69.在本说明书实施例中,获取活体攻击检测指令,随机生成显示区域变换顺序,在终端界面上显示视线追随提示信息,视线追随提示信息还可以包含语音播报,提升了信息提示的多样性,显示区域变换顺序的随机性提升了活体攻击检测的准确性。基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示,获取图案显示过程中所采集到的用户交互视频,基于时间戳或者图像帧之间的相似度获取关键帧集合,找到各关键帧的人脸区域,再根据五官关键点获取人眼区域,减少了需要进行处理的图像数据大小,提高了活体攻击检测的速度。基于注视点分类模型获取各人眼区域对应的注视区域,获取所述用户交互视频所对应的注视区域变换顺序,若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。通过捕捉用户注视区域,判断用户注视区域变换顺序与显示区域变换顺序是否一致进行活体攻击检测,提高了活体攻击检测对环境的抗干扰性,从而提高了活体攻击检测的便捷性和准确性。并且还可以在获取关键帧的注视区域的基础上,获取关键帧之间图像帧的注视区域,得到用户视线移动的动线,提高了活体攻击检测的准确性,注视交互还可以与炫彩交互相结合,提高了活体攻击检测的复杂性,从而进一步提升了活体攻击检测结果的准确性。
70.下面将结合附图6-附图7,对本说明书实施例提供的活体攻击检测装置进行详细介绍。需要说明的是,附图6-附图7中的活体攻击检测装置,用于执行本说明书图2和图3所示实施例的方法,为了便于说明,仅示出了与本说明书实施例相关的部分,具体技术细节未揭示的,请参照本说明书图2和图3所示的实施例。
71.请参见图6,其示出了本说明书一个示例性实施例提供的活体攻击检测装置的结
构示意图。该活体攻击检测装置可以通过软件、硬件或者两者的结合实现成为装置的全部或一部分。该装置1包括图案显示模块11、视频获取模块12和交互检测模块13。
72.图案显示模块11,用于基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示;
73.视频获取模块12,用于获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序;
74.交互检测模块13,用于若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。
75.在本实施例中,基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示,获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序,若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。通过捕捉用户注视区域,判断用户注视区域变换顺序与显示区域变换顺序是否一致进行活体攻击检测,提高了活体攻击检测对环境的抗干扰性,从而提高了活体攻击检测的便捷性和准确性。
76.请参见图7,其示出了本说明书一个示例性实施例提供的活体攻击检测装置的结构示意图。该活体攻击检测装置可以通过软件、硬件或者两者的结合实现成为装置的全部或一部分。该装置1包括模型训练模块14、顺序生成模块15、图案显示模块11、视频获取模块12、交互检测模块13和真人检测模块16。
77.模型训练模块14,用于基于注视点样本训练集对初始模型进行训练处理,获得注视点分类模型,所述注视点样本训练集中包括至少一个样本人眼区域和所述至少一个样本人眼区域中各样本人眼区域对应的注视区域;
78.顺序生成模块15,用于获取活体攻击检测指令,随机生成显示区域变换顺序;
79.在终端界面上显示视线追随提示信息;
80.图案显示模块11,用于基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示;
81.视频获取模块12,用于获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序;
82.可选的,所述视频获取模块12具体用于获取图案显示过程中所采集到的用户交互视频;
83.获取所述用户交互视频中图案显示过程所对应的关键帧集合,获取所述关键帧集合中各关键帧对应的注视区域;
84.按照时间顺序对各关键帧对应的注视区域进行排序,获得所述用户交互视频所对应的注视区域变换顺序。
85.可选的,所述视频获取模块12具体用于获取图案显示过程中每次显示区域更换,在所述用户交互视频中对应的关键帧,并保存在关键帧集合中;
86.获取所述关键帧集合中各关键帧对应的注视区域。
87.可选的,所述视频获取模块12具体用于获取所述关键帧集合中的目标关键帧,获取所述目标关键帧中的人眼区域,所述目标关键帧为所述关键帧集合中的任一关键帧;
88.基于注视点分类模型,获取所述人眼区域对应的注视区域。
89.可选的,所述视频获取模块12具体用于对所述关键帧集合中的目标关键帧进行人脸检测处理,获得所述目标关键帧中的人脸区域;
90.获取所述人脸区域中的五官关键点,基于所述五官关键点获取所述目标关键帧中的人眼区域。
91.交互检测模块13,用于若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击;
92.真人检测模块16,用于若所述显示区域变换顺序与所述注视区域变换顺序相匹配,则确认所述用户交互视频的检测结果为真人交互。
93.在本实施例中,获取活体攻击检测指令,随机生成显示区域变换顺序,在终端界面上显示视线追随提示信息,视线追随提示信息还可以包含语音播报,提升了信息提示的多样性,显示区域变换顺序的随机性提升了活体攻击检测的准确性。基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示,获取图案显示过程中所采集到的用户交互视频,基于时间戳或者图像帧之间的相似度获取关键帧集合,找到各关键帧的人脸区域,再根据五官关键点获取人眼区域,减少了需要进行处理的图像数据大小,提高了活体攻击检测的速度。基于注视点分类模型获取各人眼区域对应的注视区域,获取所述用户交互视频所对应的注视区域变换顺序,若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。通过捕捉用户注视区域,判断用户注视区域变换顺序与显示区域变换顺序是否一致进行活体攻击检测,提高了活体攻击检测对环境的抗干扰性,从而提高了活体攻击检测的便捷性和准确性。并且还可以在获取关键帧的注视区域的基础上,获取关键帧之间图像帧的注视区域,得到用户视线移动的动线,提高了活体攻击检测的准确性,注视交互还可以与炫彩交互相结合,提高了活体攻击检测的复杂性,从而进一步提升了活体攻击检测结果的准确性。
94.需要说明的是,上述实施例提供的活体攻击检测装置在执行活体攻击检测方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的活体攻击检测装置与活体攻击检测方法实施例属于同一构思,其体现实现过程详见方法实施例,这里不再赘述。
95.上述本说明书实施例序号仅仅为了描述,不代表实施例的优劣。
96.本说明书实施例还提供了一种计算机存储介质,所述计算机存储介质可以存储有多条指令,所述指令适于由处理器加载并执行如上述图1-图5所示实施例的所述活体攻击检测方法,具体执行过程可以参见图1-图5所示实施例的具体说明,在此不进行赘述。
97.本说明书还提供了一种计算机程序产品,该计算机程序产品存储有至少一条指令,所述至少一条指令由所述处理器加载并执行如上述图1-图5所示实施例的所述活体攻击检测方法,具体执行过程可以参见图1-图5所示实施例的具体说明,在此不进行赘述。
98.请参考图8,其示出了本说明书一个示例性实施例提供的电子设备的结构方框图。本说明书中的电子设备可以包括一个或多个如下部件:处理器110、存储器120、输入装置130、输出装置140和总线150。处理器110、存储器120、输入装置130和输出装置140之间可以通过总线150连接。
99.处理器110可以包括一个或者多个处理核心。处理器110利用各种接口和线路连接
整个电子设备内的各个部分,通过运行或执行存储在存储器120内的指令、程序、代码集或指令集,以及调用存储在存储器120内的数据,执行终端100的各种功能和处理数据。可选地,处理器110可以采用数字信号处理(digital signal processing,dsp)、现场可编程门阵列(field-programmable gate array,fpga)、可编程逻辑阵列(programmable logic array,pla)中的至少一种硬件形式来实现。处理器110可集成中央处理器(central processing unit,cpu)、图像处理器(graphics processing unit,gpu)和调制解调器等中的一种或几种的组合。其中,cpu主要处理操作系统、用户页面和应用程序等;gpu用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器110中,单独通过一块通信芯片进行实现。
100.存储器120可以包括随机存储器(random access memory,ram),也可以包括只读存储器(read-only memory,rom)。可选地,该存储器120包括非瞬时性计算机可读介质(non-transitory computer-readable storage medium)。存储器120可用于存储指令、程序、代码、代码集或指令集。存储器120可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等,该操作系统可以是安卓(android)系统,包括基于android系统深度开发的系统、苹果公司开发的ios系统,包括基于ios系统深度开发的系统或其它系统。
101.存储器120可分为操作系统空间和用户空间,操作系统即运行于操作系统空间,原生及第三方应用程序即运行于用户空间。为了保证不同第三方应用程序均能够达到较好的运行效果,操作系统针对不同第三方应用程序为其分配相应的系统资源。然而,同一第三方应用程序中不同应用场景对系统资源的需求也存在差异,比如,在本地资源加载场景下,第三方应用程序对磁盘读取速度的要求较高;在动画渲染场景下,第三方应用程序则对gpu性能的要求较高。而操作系统与第三方应用程序之间相互独立,操作系统往往不能及时感知第三方应用程序当前的应用场景,导致操作系统无法根据第三方应用程序的具体应用场景进行针对性的系统资源适配。
102.为了使操作系统能够区分第三方应用程序的具体应用场景,需要打通第三方应用程序与操作系统之间的数据通信,使得操作系统能够随时获取第三方应用程序当前的场景信息,进而基于当前场景进行针对性的系统资源适配。
103.其中,输入装置130用于接收输入的指令或数据,输入装置130包括但不限于键盘、鼠标、摄像头、麦克风或触控设备。输出装置140用于输出指令或数据,输出装置140包括但不限于显示设备和扬声器等。在一个示例中,输入装置130和输出装置140可以合设,输入装置130和输出装置140为触摸显示屏。
104.所述触摸显示屏可被设计成为全面屏、曲面屏或异型屏。触摸显示屏还可被设计成为全面屏与曲面屏的结合,异型屏与曲面屏的结合,本说明书实施例对此不加以限定。
105.除此之外,本领域技术人员可以理解,上述附图所示出的电子设备的结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。比如,电子设备中还包括射频电路、输入单元、传感器、音频电路、无线保真(wireless fidelity,wifi)模块、电源、蓝牙模块等部件,在此不再赘述。
106.在图8所示的电子设备中,处理器110可以用于调用存储器120中存储的活体攻击
检测应用程序,并具体执行以下操作:
107.基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示;
108.获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序;
109.若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。
110.在一个实施例中,所述处理器110在执行基于显示区域变换顺序,在终端界面的至少一个显示区域上进行图案显示之前,还执行以下操作:
111.获取活体攻击检测指令,随机生成显示区域变换顺序;
112.在终端界面上显示视线追随提示信息。
113.在一个实施例中,所述处理器110在执行获取图案显示过程中所采集到的用户交互视频,获取所述用户交互视频所对应的注视区域变换顺序时,具体执行以下操作:
114.获取图案显示过程中所采集到的用户交互视频;
115.获取所述用户交互视频中图案显示过程所对应的关键帧集合,获取所述关键帧集合中各关键帧对应的注视区域;
116.按照时间顺序对各关键帧对应的注视区域进行排序,获得所述用户交互视频所对应的注视区域变换顺序。
117.在一个实施例中,所述处理器110在执行获取所述用户交互视频中图案显示过程所对应的关键帧集合,获取所述关键帧集合中各关键帧对应的注视区域时,具体执行以下操作:
118.获取图案显示过程中每次显示区域更换,在所述用户交互视频中对应的关键帧,并保存在关键帧集合中;
119.获取所述关键帧集合中各关键帧对应的注视区域。
120.在一个实施例中,所述处理器110在执行获取所述关键帧集合中各关键帧对应的注视区域时,具体执行以下操作:
121.获取所述关键帧集合中的目标关键帧,获取所述目标关键帧中的人眼区域,所述目标关键帧为所述关键帧集合中的任一关键帧;
122.基于注视点分类模型,获取所述人眼区域对应的注视区域。
123.在一个实施例中,所述处理器110在执行基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示之前,还执行以下操作:
124.基于注视点样本训练集对初始模型进行训练处理,获得注视点分类模型,所述注视点样本训练集中包括至少一个样本人眼区域和所述至少一个样本人眼区域中各样本人眼区域对应的注视区域。
125.在一个实施例中,所述处理器110在执行获取所述关键帧集合中的目标关键帧,获取所述目标关键帧中的人眼区域时,具体执行以下操作:
126.对所述关键帧集合中的目标关键帧进行人脸检测处理,获得所述目标关键帧中的人脸区域;
127.获取所述人脸区域中的五官关键点,基于所述五官关键点获取所述目标关键帧中的人眼区域。
128.在一个实施例中,所述处理器110在执行所述活体攻击检测方法是,还执行以下操作:
129.若所述显示区域变换顺序与所述注视区域变换顺序相匹配,则确认所述用户交互视频的检测结果为真人交互。
130.在本实施例中,获取活体攻击检测指令,随机生成显示区域变换顺序,在终端界面上显示视线追随提示信息,视线追随提示信息还可以包含语音播报,提升了信息提示的多样性,显示区域变换顺序的随机性提升了活体攻击检测的准确性。基于显示区域变换顺序,在终端界面的至少一个显示区域上依次进行图案显示,获取图案显示过程中所采集到的用户交互视频,基于时间戳或者图像帧之间的相似度获取关键帧集合,找到各关键帧的人脸区域,再根据五官关键点获取人眼区域,减少了需要进行处理的图像数据大小,提高了活体攻击检测的速度。基于注视点分类模型获取各人眼区域对应的注视区域,获取所述用户交互视频所对应的注视区域变换顺序,若所述显示区域变换顺序与所述注视区域变换顺序不匹配,则确认所述用户交互视频的检测结果为活体攻击。通过捕捉用户注视区域,判断用户注视区域变换顺序与显示区域变换顺序是否一致进行活体攻击检测,提高了活体攻击检测对环境的抗干扰性,从而提高了活体攻击检测的便捷性和准确性。并且还可以在获取关键帧的注视区域的基础上,获取关键帧之间图像帧的注视区域,得到用户视线移动的动线,提高了活体攻击检测的准确性,注视交互还可以与炫彩交互相结合,提高了活体攻击检测的复杂性,从而进一步提升了活体攻击检测结果的准确性。
131.本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体或随机存储记忆体等。
132.以上所揭露的仅为本说明书较佳实施例而已,当然不能以此来限定本说明书之权利范围,因此依本说明书权利要求所作的等同变化,仍属本说明书所涵盖的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1