人机互动方法、装置、设备及存储介质与流程

文档序号:27437169发布日期:2021-11-17 23:03阅读:198来源:国知局
人机互动方法、装置、设备及存储介质与流程

1.本技术实施例涉及计算机视觉领域,涉及但不限于一种人机互动方法、装置、设备及存储介质。


背景技术:

2.相关技术中,人工智能算法提供了对象识别基本能力,并将人工智能算法应用于计算机视觉领域,进行对象识别或检测;但是在应用人工智能算法的过程中,用户的感知度和参与度均不高。


技术实现要素:

3.本技术实施例提供一种人机互动技术方案。
4.本技术实施例的技术方案是这样实现的:
5.本技术实施例提供一种人机互动方法,所述方法包括:
6.获取第一图像;
7.在所述第一图像中,进行人脸检测;
8.响应于在所述第一图像中检测到满足预设条件的人脸图像,对所述人脸图像的属性信息进行识别,得到属性识别结果;
9.基于所述属性识别结果,生成并展示互动图像。
10.在一些实施例中,所述获取第一图像,包括:获取实时输入的视频流;基于所述视频流的采集参数,对所述视频流进行抽帧,得到视频关键帧集合;将所述视频关键帧集合中的任一视频关键帧作为所述第一图像。如此,通过对实时输入的视频流进行抽帧等逻辑处理,能够实时检测到具有有效人脸图像的视频关键帧,从而实时为用户提供交互服务。
11.在一些实施例中,所述在所述第一图像中,进行人脸检测之后,所述方法还包括:响应于在所述第一图像中未检测到满足预设条件的人脸图像,在所述视频关键帧集合中确定与所述第一图像在时序相邻的图像作为新的第一图像;返回执行所述在所述第一图像中,进行人脸检测的步。如此,针对满足预设条件(如具有清晰人脸图像)的视频帧进行人脸属性信息的识别,能够更加准确地为用户提供交互功能。
12.在一些实施例中,所述响应于在所述第一图像中检测到满足预设条件的人脸图像,对所述人脸图像的属性信息进行识别,得到属性识别结果,包括:响应于在所述第一图像中检测到画面清晰度大于第一预设阈值,和/或尺寸信息大于第二预设阈值的人脸图像,确定检测到满足所述预设条件的人脸图像;对所述人脸图像的面部信息和身份信息进行识别,得到所述属性识别结果。如此,通过识别人脸图像中的面部信息和身份信息,得到属性识别结果,能够基于此生成合理的互动动画。
13.在一些实施例中,所述对所述人脸图像的面部信息和身份信息进行识别,得到所述属性识别结果,包括:在所述第一图像中包括单个人脸图像的情况下,启动单人模式;在所述单人模式下,对所述单个人脸图像的面部信息和身份信息进行识别,得到所述属性识
别结果;所述基于所述属性识别结果,生成并展示互动图像,包括:生成并展示与所述单个人脸图像的属性识别结果相匹配的第一互动图像。如此,在单人模式下,通过对单帧人脸图像的属性信息进行识别,并以动画的形式展示该属性识别结果,增加用户与交互设备的互动乐趣。
14.在一些实施例中,所述生成并展示与所述单个人脸图像的属性识别结果相匹配的第一互动图像之后,所述方法还包括:从展示所述第一互动图像的页面,跳转至呈现第一排行榜的显示页面;其中,所述第一排行榜用于展示第一预设时长内不同人脸的属性识别结果的分值排列和对应的头像。如此,用户可以查看一定时长内不同用户的属性识别结果的分值和对应的用户头像,以激发用户不断刷新自己排名的竞技心态,增强交互效果。
15.在一些实施例中,所述对所述人脸图像的面部信息和身份信息进行识别,得到所述属性识别结果,包括:在所述第一图像中包括至少两个人脸图像的情况下,启动多人模式;在所述多人模式下,基于预设规则,在所述至少两个人脸图像中确定预设数量的目标人脸图像;其中,所述预设数量与所述多人模式相匹配;对每一目标人脸图像的面部信息和身份信息进行识别,得到所述每一目标人脸图像的属性识别结果。如此,在多人模式下,能够为用户呈现多用户属性识别结果比对的动画,丰富人机交互方式。
16.在一些实施例中,所述基于所述属性识别结果,生成并展示互动图像,包括:将所述预设数量的目标人脸图像的属性识别结果进行比对,得到比对结果;生成并展示与所述比对结果相匹配的第二互动图像。如此,在多人模式下,通过对多个目标人脸图像的属性识别结果进行比对,并以动画的形式展示该比对结果,增加多用户共同参与互动的乐趣。
17.在一些实施例中,所述生成并展示与所述比对结果相匹配的第二互动图像之后,所述方法还包括:从展示所述第二互动图像的页面,跳转至呈现第二排行榜的显示页面;其中,所述第二排行榜用于展示第二预设时长内不同人脸的比对结果的胜出次数排列和对应的头像。如此,用户可以查看一定时长内对决(playerkilling,pk)胜利次数较多的胜利次数和对应的用户头像,以鼓励多个用户一起互动,增强人机交互效果。
18.本技术实施例提供一种人机互动装置,所述装置包括:
19.第一获取模块,用于获取第一图像;
20.第一检测模块,用于在所述第一图像中,进行人脸检测;
21.第一识别模块,用于响应于在所述第一图像中检测到满足预设条件的人脸图像,对所述人脸图像的属性信息进行识别,得到属性识别结果;
22.第一生成模块,用于基于所述属性识别结果,生成并展示互动图像。
23.对应地,本技术实施例提供一种计算机存储介质,所述计算机存储介质上存储有计算机可执行指令,该计算机可执行指令被执行后,能够实现上述所述的方法步骤。
24.本技术实施例提供一种电子设备,所述电子设备包括存储器和处理器,所述存储器上存储有计算机可执行指令,所述处理器运行所述存储器上的计算机可执行指令时能够实现上述方法的步骤。
25.本技术实施例提供一种人机互动方法、装置、设备及存储介质,通过对第一图像进人脸检测,在检测到有效的人脸图像的情况下,对人脸图像中的人脸属性信息进行识别,从而得到每一属性信息的识别结果;这样,通过对图像进行人脸检测后对于有效的人脸图像进行属性识别,能够更加准确的识别出人脸的属性识别结果。按照识别出的属性识别结果,
生成并展示以供用户进行互动娱乐的互动图像;如此,能够增加人机互动方式和交互效果。
附图说明
26.图1为本技术实施例提供的人机互动方法的实现流程示意图;
27.图2为本技术实施例提供的人机互动方法的另一实现流程示意图;
28.图3为本技术实施例提供的人机互动方法的实现流程示意图;
29.图4为本技术实施例提供的人机互动方法的又一实现流程示意图;
30.图5为本技术实施例提供的人机互动方法的再一实现流程示意图;
31.图6为本技术实施例提供的人机互动方法的应用场景示意图;
32.图7为本技术实施例提供的人机互动方法的另一应用场景示意图;
33.图8为本技术实施例提供的人机互动装置的结构组成示意图;
34.图9为本技术实施例提供的电子设备的组成结构示意图。
具体实施方式
35.为使本技术实施例的目的、技术方案和优点更加清楚,下面将结合本技术实施例中的附图,对发明的具体技术方案做进一步详细描述。以下实施例用于说明本技术,但不用来限制本技术的范围。
36.在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
37.在以下的描述中,所涉及的术语“第一\第二\第三”仅仅是是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序,以使这里描述的本技术实施例能够以除了在这里图示或描述的以外的顺序实施。
38.除非另有定义,本文所使用的所有的技术和科学术语与属于本技术的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本技术实施例的目的,不是旨在限制本技术。
39.对本技术实施例进行进一步详细说明之前,对本技术实施例中涉及的名词和术语进行说明,本技术实施例中涉及的名词和术语适用于如下的解释。
40.1)计算机视觉:指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。
41.2)人脸识别:利用计算机视觉和机器学习软件获取人脸,采集人脸数据,将收集到的人脸数据加载到内存,搭建属于自己的卷积神经网络,并用人脸数据训练自己的网络,将训练好的网络保存成模型,最后,获取实时人脸用先前训练好的模型来识别人脸。
42.下面说明本技术实施例提供的人机互动设备的示例性应用,其中,本技术实施例提供的设备可以实施为具有图像采集功能的笔记本电脑,平板电脑,台式计算机,人工智能终端设备,移动设备(例如,个人数字助理,专用消息设备,便携式游戏设备),处理器等各种类型的电子设备。
43.下面,将说明人机互动设备实施为电子设备时示例性应用。
44.图1为本技术实施例提供的人机互动方法的实现流程示意图,如图1所示,结合如图1所示步骤进行说明:
45.步骤s101,获取第一图像。
46.在一些实施例中,第一图像的图像采集装置可以是任意具有图像采集功能的装置或者设备,比如,摄像机、相机、一体机自带的摄像头或设备外接的独立摄像头等。该第一图像可以是在任意场景下采集到画面内容简单图像,还可以是画面内容复杂的图像。在一个具体例子中,第一图像可以是学校的走廊、教室内,各类展示厅或体验馆等内安装的摄像头采集到的视频中的任一帧图像。
47.步骤s102,在所述第一图像中,进行人脸检测。
48.在一些实施例中,采用卷积神经网络对第一图像进人脸检测,以检测该第一图像中是否包括人脸图像;并采用检测框标记检测到的人脸图像,以检测出第一图像中的比较清晰的人脸。
49.步骤s103,响应于在所述第一图像中检测到满足预设条件的人脸图像,对所述人脸图像的属性信息进行识别,得到属性识别结果。
50.其中,预设条件是预先设置的图像中存在有效人脸的条件。在一些实施例中,满足预设条件的人脸图像为人脸清晰度大于预设清晰度,和/或人脸画面的尺寸信息大于预设尺寸信息的人脸图像。人脸图像的属性信息至少包括该人脸图像的面部信息和身份信息,比如,表情、颜值、微笑值、年龄和性别等。如果在第一图像中检测到有效的人脸图像,那么采用检测框标记出该有效的人脸图像,并对检测框内的人脸图像进行人脸属性识别,从而识别到每一属性信息的结果。
51.步骤s104,基于所述属性识别结果,生成并展示互动图像。
52.在一些实施例中,基于该属性识别结果中每一项属性信息的具体属性值,做一系列互动性的功能,生成与该属性识别结果匹配的互动图像,以在该互动图像中以动画或视频等形式展示该属性识别结果。
53.在本技术实施例中,通过对第一图像进人脸检测,在检测到有效的人脸图像的情况下,对人脸图像中的人脸属性信息进行识别,从而得到每一属性信息的识别结果;这样,通过对图像进行人脸检测后对于有效的人脸图像进行属性识别,能够更加准确的识别出人脸的属性识别结果。按照识别出的属性识别结果,生成并展示以供用户进行互动娱乐的互动图像;例如,基于检测的人脸图像合属性识别结果,将属性识别结果添加到人脸图像,并增加渲染效果(如渲染图标等)形成渲染图进行显示。如此,能够增加人机互动方式和交互效果,有助于提升人机交互乐趣。
54.在一些实施例中,为提高与用户的实时互动性,对于用户人脸实时采集的视频进行抽帧等逻辑处理,得到该第一图像,即上述步骤s101可以通过以下步骤s111至113(图示未示出)实现:
55.步骤s111,获取实时输入的视频流。
56.一种可能的实现方式中,在任一场景内的摄像头实时采集到视频流之后,可上传到人机交互的设备。比如,在展览馆内的摄像头实时采集的视频流。
57.步骤s112,基于所述视频流的采集参数,对所述视频流进行抽帧,得到视频关键帧集合。
58.一种可能的实现方式中,视频流的采集参数可以是视频流的采集设备的采集参数,包括:机器参数,比如,有效像素、快门速度和镜头参数等。通过分析这些采集参数,对视频流进行抽帧,从该视频流中抽取关键帧,以使关键帧的数量满足多帧关键帧内人脸检测框平滑移动,且不抽取过多的关键帧导致信息冗余。
59.步骤s113,将所述视频关键帧集合中的任一视频关键帧作为所述第一图像。
60.一种可能的实现方式中,将随机抽取出的任一视频关键帧作为第一图像,即以单帧图像作为第一图像。这样,对实时获取的视频流进行抽帧等逻辑处理,在得到的关键帧集合中的任一单帧图像作为第一图像,能够提高第一图像中包含有效人脸图像的概率。在其他可能的实现方式中,可以在视频关键帧集合中按照时间顺序逐一抽取视频关键帧作为第一图像,直至检测到有效人脸。
61.上述步骤s111至113,通过对实时输入的视频流进行抽帧等逻辑处理,能够实时检测到具有有效人脸图像的视频关键帧,从而实时为用户提供交互服务。
62.在步骤s113之后,进入步骤s102对该第一图像进行人脸检测,如果在第一图像中未检测到有效的人脸图像,那么进入步骤s114,继续检测下一帧图像。
63.步骤s114,响应于在所述第一图像中未检测到满足预设条件的人脸图像,在所述视频关键帧集合中确定与所述第一图像在时序相邻的图像作为新的第一图像。
64.在一些实施例中,如果在第一图像中未检测到清晰度和/或尺寸满足一定阈值的人脸图像,那么跳过该第一图像,继续在视频关键帧集合中确定出与该第一图像时序相邻的图像,即当前第一图像的下一帧图像,作为新的第一图像。
65.步骤s115,返回执行所述在所述第一图像中,进行人脸检测的步骤。
66.在一些实施例中,采用与对第一图像进行人脸检测相同的步骤,对新的第一图像进行人脸检测,以检测新的第一图像中是否具有满足预设条件的人脸图像;如果新的第一图像中没有该人脸图像,那么继续在在视频关键帧集合中确定出与该新的第一图像时序相邻的下一帧图像。如此,针对满足预设条件的视频帧进行人脸属性信息的识别,能够更加准确地为用户提供交互功能。
67.在一些实施例中,将清晰度大于一定预设清晰度,且尺寸信息大于预设尺寸信息的人脸图像作为满足预设条件的人脸图像,即上述步骤s103可以通过图2所示的步骤实现:
68.步骤s201,响应于在所述第一图像中检测到画面清晰度大于第一预设阈值,和/或尺寸信息大于第二预设阈值的人脸图像,确定检测到满足所述预设条件的人脸图像。
69.一种可能的实现方式中,通过确定第一图像的梯度函数,以表征第一图像的画面清晰度。比如,在第一图像中,确定相邻两个像素灰度差的平方,以确定第一图像的梯度函数。如果在第一图像中检测到画面清晰度大于第一预设阈值(比如,预设清晰度)的人脸图像,可以确定该第一图像中包括有效的人脸图像,即检测到满足预设条件的人脸图像。
70.该尺寸信息可以人脸图像在第一图像中的占比,或者,人脸图像的长度和宽度,尺寸信息大于第二预设阈值可以是该占比大于一定的占比阈值(比如,50%),或者人脸图像的长度和宽度均比较大。如果在第一图像中检测到占比较大的人脸图像,可以确定该第一图像中包括有效的人脸图像,即检测到满足预设条件的人脸图像。或者,如果能够在第一图像中检测到清晰度较高且尺寸信息也较大的人脸图像,那么将检测到的人脸图像作为有效的人脸图像,即满足预设条件的人脸图像。
71.步骤s202,对所述人脸图像的面部信息和身份信息进行识别,得到所述属性识别结果。
72.一种可能的实现方式中,对所述人脸图像的面部信息和身份信息进行识别,得到所述属性识别结果。属性信息包括人脸的面部信息和身份信息;其中,面部信息为人脸的面部特征以及面部装饰,例如,包括:表情、颜值、微笑值和带眼镜等;身份信息表示该人脸图像中人脸所对应用户的身份,例如,包括:年龄和性别。在一个具体例子中,如果属性信息为表情、颜值、微笑值、年龄和性别,那么属性识别结果为:具体的表情、颜值分数、微笑值分数、具体年龄值和具体性别。如此,通过识别人脸图像中的面部信息和身份信息,得到属性识别结果,能够基于此生成合理的互动动画。
73.在一些实施例中,基于人脸图像中包括的人脸数量不同,为用户展示不同的交互图像,在所述第一图像中包括单个人脸图像的情况下,上述步骤s202可以通过以下步骤实现:
74.步骤221,在所述第一图像中包括单个人脸图像的情况下,启动单人模式。
75.一种可能的实现方式中,如果第一图像中仅包括单个的人脸,启动交互设备的单人模式,使用交互设备对该单个人脸图像进行属性信息的识别。
76.步骤222,在所述单人模式下,对所述单个人脸图像的面部信息和身份信息进行识别,得到所述属性识别结果。
77.一种可能的实现方式中,启动单人模式后,在该人脸图像中,对单个人脸的面部信息和身份信息进行识别,得到该单个人脸的属性识别结果。
78.上述步骤s221和222实现了单人模式下,进行人脸图像的属性信息的识别。在得到属性识别结果之后,进入步骤s223。
79.步骤s223,生成并展示与所述单个人脸图像的属性识别结果相匹配的第一互动图像。
80.一种可能的实现方式中,该第一互动图像可以为交互动画,以动画的形式展示该属性识别结果。如此,在单人模式下,通过对单帧人脸图像的属性信息进行识别,并以动画的形式展示该属性识别结果,增加用户与交互设备的互动乐趣。
81.在步骤s223之后,为进一步丰富交互方式,激发用户的玩乐心态,可向用户展示属性识别结果的排行榜,实现过程如下:
82.从展示所述第一互动图像的页面,跳转至呈现第一排行榜的显示页面。
83.一种可能的实现方式中,第一排行榜用于展示第一预设时长内不同人脸的属性识别结果的分值排列和对应的头像;第一预设时长为以当前时刻为终点时刻的历史时长,比如,以当前时刻为终点的前19分钟。该第一排行榜可以展示该第一预设时长内属性识别结果分值较高(如,颜值/微笑值较高,或综合分值较高)的前n名的用户得分以及用户头像,还可以是显示第一预设时长内所有用户的属性识别结果的分值排列以及用户头像。在采用动画展示属性识别结果后,可自动跳转或手动触发跳转进入展示第一排行榜的页面,从而用户可以查看一定时长内不同用户的属性识别结果的分值和对应的用户头像,以丰富交互方法,增强交互效果,激发用户不断刷新自己排名的竞技心态,增强交互效果。
84.在一些实施例中,基于人脸图像中包括的人脸数量不同,为用户展示不同的交互图像,在所述第一图像中包括多个人脸图像的情况下,上述步骤s202可以通过以下步骤实
现:
85.第一步,在所述第一图像中包括至少两个人脸图像的情况下,启动多人模式。
86.一种可能的实现方式中,如果第一图像中包括多个的人脸,启动交互设备的多人模式,使用交互设备在该多个人脸图像中确定一定数量的人脸图像,进行属性信息的识别。比如,启动交互设备的双人模式,那么可对多个人脸图像中的两个人脸图像的属性信息进行设备。
87.第二步,在所述多人模式下,基于预设规则,在所述至少两个人脸图像中确定预设数量的目标人脸图像。
88.在一些实施例中,启动多人模式之后,在多人模式下,可以通过人脸的尺寸信息选择预设数量的目标人脸图像。比如,首先,通过确定所述至少两个人脸图像中每一人脸图像的尺寸信息。然后,基于所述每一人脸图像的尺寸信息,在所述至少两个人脸图像中选择预设数量的目标人脸图像。
89.一种可能的实现方式中,启动交互设备的多人模式之后,分别确定每一人脸图像的长、宽或者面积等尺寸信息。按照每一人脸图像的尺寸信息,在多个人脸图像中选择的尺寸信息最大的预设数量个目标人脸图像。比如,多人模式为双人模式,那么在这多个人脸图像中选择尺寸信息最大的前两个目标人脸图像。
90.在一些实施例中,启动多人模式之后,在多人模式下,还可以通过人脸的位置信息,选择预设数量的目标人脸图像;比如,首先,在第一图像中,确定每一人脸图像的位置信息;然后,将位置靠近第一图像中心的预设数量个人脸图像作为目标人脸图像。
91.在一些实施例中,启动多人模式之后,在多人模式下,还可以通过人脸图像的清晰度,选择预设数量的目标人脸图像;比如,对第一图像中的多个人脸图像的清晰度按照从高到低进行排序;然后,将排列在前预设数量个人脸图像作为目标人脸图像。
92.第三步,对每一目标人脸图像的面部信息和身份信息进行识别,得到所述每一目标人脸图像的属性识别结果。
93.一种可能的实现方式中,在多个人脸图像中选择出目标人脸图像之后,对每一目标人脸图像的面部信息和身份信息进行识别,从而得到目标人脸图像的属性识别结果。
94.上述第一步至第三步,按照启动的多人模式,在多个人脸图像中选择一定数量的目标人脸图像,从而对每一目标人脸图像识别属性信息,进而能够为用户呈现多用户属性识别结果比对的动画。
95.在得到每一目标人脸图像的属性识别结果之后,可进入到第四步,以对多人的识别结果进行比对,呈现互动图像。
96.第四步,将所述预设数量的目标人脸图像的属性识别结果进行比对,得到比对结果。
97.一种可能的实现方式中,以多人模式为双人模式为例,预设数量为2,将这两个目标人脸图像的属性识别结果进行比较,得到该比对结果。该比对结果表明目标人脸图像的属性识别结果中的属性值是否胜出。在评比的过程中,用户可以选择评比模式,包括:单项属性值比较还是综合评比,比如,选择属性识别结果中的微笑值、颜值或魅力值等中的一项或多项进行评比;在一个具体例子中,在用户选择单项属性值比对的情况下,如果一个目标人脸图像的微笑值、颜值或魅力值等为98,另一目标人脸图像的微笑值、颜值或魅力值等为
80,那么比对结果为:微笑值、颜值或魅力值等为98的目标人脸图像胜出。
98.在另一可能的实现方式中,在用户选择属性值综合比对的情况下,针对每一目标人脸图像的多个属性值进行综合评估,以得到比对结果;其中综合评估方式可根据实际需求设置为总分、平均分或者加权平均等方式。比如,第一目标人脸图像的微笑之为90、颜值为80以及魅力值为90;第二目标人脸图像的微笑之为80、颜值为90以及魅力值为70;通过对这两帧目标人脸图像的多个属性值进行综合评估得出,第一目标人脸图像的综合得分为260,第二目标人脸图像的综合得分为240,确定第一目标人脸图像胜出。
99.在其他实施例中,评比模式可以是预先设置好的,对用户进行人脸检测得到属性识别结果之后直接进行评比,无需用户选择。
100.第五步,生成并展示与所述比对结果相匹配的第二互动图像。
101.一种可能的实现方式中,该第二互动图像也可以为交互动画,以动画的形式展示该多个目标人脸图像的属性识别结果的对比结果。如此,在多人模式下,通过对多个目标人脸图像的属性识别结果进行比对,并以动画的形式展示该比对结果,增加多用户共同参与互动的乐趣。
102.在第五步之后,为进一步丰富互动方式,增强互动效果,提高互动乐趣,可展示不同用户的属性识别结果的pk结果的排行榜,实现过程如下:
103.从展示所述第二互动图像的页面,跳转至呈现第二排行榜的显示页面。
104.一种可能的实现方式中,第二排行榜用于展示第二预设时长内不同人脸的比对结果的胜出次数排列和对应的头像。第二预设时长可以与第一预设时长相同或不同,为以当前时刻为终点时刻的历史时长。该第二排行榜可以展示该第二预设时长内属性识别结果pk胜利次数最多的用户的头像和胜利次数,还可以是显示第二预设时长内所有用户的属性识别结果pk胜利次数以及用户头像。在采用动画展示属性识别结果的pk结果后,可自动跳转或手动触发跳转进入展示第二排行榜的页面,从而用户可以查看一定时长内pk胜利次数较多的胜利次数和对应的用户头像,以鼓励多个用户一起互动,丰富互动方式,增强互动效果。
105.下面,将说明本技术实施例在一个实际的应用场景中的示例性应用,以基于人工智能算法进行人脸检测及人脸属性识别,从而实现人机互动为例,进行说明。
106.人工智能算法提供了人脸检测及人脸属性识别等基本能力,围绕着这些能力,本技术实施例进行工程上的设计和应用开发,包括通过安卓(android)系统获取实时视频的字节流、图片抠图、人脸相关属性的识别等,得到基于人脸属性识别的人机交互软件,该软件可部署在电子设备,以实现人机交互功能。
107.该基于人脸属性识别的人机互动软件,借助人脸属性识别算法对人脸图像进行解析,输出表情、年龄、性别、颜值、微笑值、是否带眼镜等属性,通过一系列互动性功能的设计,使软件具有互动娱乐的功能。
108.图3为本技术实施例提供的人机互动方法的实现流程示意图,结合图3所示的步骤进行以下说明:
109.步骤s301,获取实时输入的视频流。
110.一种可能的实现方式中,通过常规摄像头实时输入视频流;如,一体机自带的摄像头,设备外接的独立摄像头等。
111.步骤s302,对视频流进行视频编解码以及抽帧处理。
112.一种可能的实现方式中,经过人机互动的软件对视频内容编解码并做抽帧等逻辑处理。
113.步骤s303,基于抽帧得到的单帧图像进行人脸检测。
114.步骤s304,判断是否检测到有效人脸。
115.一种可能的实现方式中,基于单张图像做人脸检测;如果检测到有效的人脸数据(即,人脸图像的清晰度和尺寸等符合后续处理的最小阈值),则进入下一步进行图像解析,如果没有检测到有效人脸,则跳过该帧图像,继续处理下一张图像,即返回步骤s302。
116.步骤s305,对具有有效人脸的人脸图像进行人脸属性识别。
117.一种可能的实现方式中,人脸属性包括但不限于输出以下属性值,如:表情、年龄、性别、颜值、微笑值和带眼镜等。
118.步骤s306,基于属性值,展示互动性的画面。
119.一种可能的实现方式中,属性识别之后,基于以上属性值做一系列互动性的功能,对外提供互动娱乐等服务。
120.在本技术实施例中,互动娱乐功能,主要分两种模式:单人模式和双人模式。其中,单人模式指视频画面中仅有一个有效人脸,而双人模式指视频画面中有2个或2个以上的有效人脸,在视频画面中有2个以上的有效人脸时,从中选出2个有效人脸进入下一步的人脸属性识别过程。
121.单人模式下进行人机互动的实现过程如图4所示,可以通过以下步骤实现:
122.步骤s401,在单帧图像中检测到单个有效人脸。
123.一种可能的实现方式中,对单帧图像中的有效人脸进行检测,可以采用检测框的方式标记检测到的人脸,如图6所示,在显示界面600上,呈现单帧图像601,对该单帧图像601画面中的有效人脸进行检测,采用检测框602标记检测到的有效人脸画面。
124.步骤s402,对该有效人脸进行属性识别。
125.步骤s403,以动画的形式展示属性识别的识别结果。
126.步骤s404,自动跳转到个人排行榜页面,并展示个人排行榜。
127.这样在单人模式下,首先,对画面为单人的人脸图像进行处理,识别人脸属性信息后,将识别结果以动画的形式展示出来;然后,自动跳转进入个人排行榜页面。排行榜展示一定时间内排名最高的用户的头像和得分情况,如此,能够激发用户的玩乐心态,通过不断尝试刷高自己的排名。如图7所示,在展示界面700上展示识别结果,展示用户的人脸图像701,以及该用户的具体属性值,其中:微笑值为98、性别为女、年龄为26、魅力值为97;在展示界面上还显示该有效人脸所对应的今日微笑排名,如图7所示,在展示界面的显示区域702显示“今日微笑排名:no.1超过96.3%的用户”。在显示区域703显示参与该排名的总人数为“总人数32”。由于“眼镜”和“高兴”未识别到,作用在展示界面上不显示“眼镜”和“高兴”的具体属性值。
128.双人模式下进行人机互动的实现过程如图5所示,可以通过以下步骤实现:
129.步骤s501,在单帧图像中检测到多个有效人脸图像。
130.步骤s502,从多个有效人脸图像中选择两个目标人脸图像。
131.步骤s503,分别对该两个目标人脸图像进行属性识别。
132.步骤s504,显示该两个目标人脸图像的属性识别结果结果的对比结果。
133.步骤s505,自动跳转到pk结果排行榜页面,并展示pk结果。
134.这样,在双人模式下,如果画面中只有2个有效人脸,就选定该两个有效人脸的图像做比对的源数据;如果画面中超过2个有效人脸,首先,根据一定策略选出两个有效人脸的人脸图像。其中,该策略可以是上述实施例中的预设规则。比如,在第一图像中选择尺寸最大的两个人脸图像,或者,选择人脸图像最靠近第一图像中心的两个人脸图像,或者选择清晰度最高的两个人脸图像等。然后,对该2张人脸图像进行属性信息的识别,并将识别结果做比对,比对结果同样以动画的形式展示出来;最后,自动跳转进入pk结果排行榜页面。排行榜展示一定时间内pk胜利次数最多的用户的头像和胜利次数数据,如此,能够鼓励用户进行多人互动。
135.在本技术实施例中,基于人脸图像做微笑值的识别并设计排名和pk等玩法,让用户实时的单人互动或者双人互动,交互方式丰富,有助于增强交互乐趣,有益用户身心健康。本技术实施例提供的人机互动方法可以应用于学校的走廊、教室内,各类展示厅、体验馆等场地。将本技术实施例提供的人机互动方法应用于电子设备作为微笑机,形成一款深度集成了人工智能视觉技术的产品,给学生认识人工智能起到了很好的促进作用,孩子们可以无年龄限制、无门槛的与机器互动,进而激发学习人工智能知识的兴趣。
136.本技术实施例提供一种人机互动装置,图8为本技术实施例提供的人机互动装置的结构组成示意图,如图8所示,所述人机互动装置800包括:
137.第一获取模块801,用于获取第一图像;
138.第一检测模块802,用于在所述第一图像中,进行人脸检测;
139.第一识别模块803,用于响应于在所述第一图像中检测到满足预设条件的人脸图像,对所述人脸图像的属性信息进行识别,得到属性识别结果;
140.第一展示模块804,用于基于所述属性识别结果,生成并展示互动图像。
141.在一些实施例中,所述第一获取模块801,包括:
142.第一获取子模块,用于获取实时输入的视频流;
143.第一抽帧子模块,用于基于所述视频流的采集参数,对所述视频流进行抽帧,得到视频关键帧集合;
144.第一确定子模块,用于将所述视频关键帧集合中的任一视频关键帧作为所述第一图像。
145.在一些实施例中,所述装置还包括:
146.第一确定模块,用于响应于在所述第一图像中未检测到满足预设条件的人脸图像,在所述视频关键帧集合中确定与所述第一图像在时序相邻图像作为新的第一图像;
147.第二检测模块,用于返回执行所述在所述第一图像中,进行人脸检测的步骤。此处,第二检测模块也可以直接采用第一检测模块。
148.在一些实施例中,所述第一识别模块603,包括:
149.第二确定子模块,用于响应于在所述第一图像中检测到画面清晰度大于第一预设阈值,和/或尺寸信息大于第二预设阈值的人脸图像,确定检测到满足所述预设条件的人脸图像;
150.第一识别子模块,用于对所述人脸图像的面部信息和身份信息进行识别,得到所
述属性识别结果。
151.在一些实施例中,所述第一识别子模块,包括:
152.第一启动单元,用于在所述第一图像中包括单个人脸图像的情况下,启动单人模式;
153.第一识别单元,用于在所述单人模式下,对所述单个人脸图像的面部信息和身份信息进行识别,得到所述属性识别结果;
154.所述第一展示模块804,包括:
155.第一展示子模块,用于生成并展示与所述单个人脸图像的属性识别结果相匹配的第一互动图像。
156.在一些实施例中,所述装置还包括:
157.第一跳转模块,用于从展示所述第一互动图像的页面,跳转至呈现第一排行榜的显示页面;其中,所述第一排行榜用于展示第一预设时长内不同人脸的属性识别结果的分值排列和对应的头像。
158.在一些实施例中,所述第一识别子模块,包括:
159.第二启动单元,用于在所述第一图像中包括至少两个人脸图像的情况下,启动多人模式;
160.第一确定单元,用于在所述多人模式下,基于预设规则,在所述至少两个人脸图像中确定预设数量的目标人脸图像;其中,所述预设数量与所述多人模式相匹配;
161.第二识别单元,用于对每一目标人脸图像的面部信息和身份信息进行识别,得到所述每一目标人脸图像的属性识别结果。
162.在一些实施例中,所述第一展示模块804,包括:
163.第一比对子模块,用于将所述预设数量的目标人脸图像的属性识别结果进行比对,得到比对结果;
164.第二展示子模块,用于生成并展示与所述比对结果相匹配的第二互动图像。
165.在一些实施例中,所述装置还包括:
166.第二跳转模块,用于从展示所述第二互动图像的页面,跳转至呈现第二排行榜的显示页面;其中,所述第二排行榜用于展示第二预设时长内不同人脸的比对结果的胜出次数排列和对应的头像。
167.需要说明的是,以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本技术装置实施例中未披露的技术细节,请参照本技术方法实施例的描述而理解。
168.需要说明的是,本技术实施例中,如果以软件功能模块的形式实现上述的人机互动方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是终端、服务器等)执行本技术各个实施例所述方法的全部或部分。而前述的存储介质包括:u盘、运动硬盘、只读存储器(read only memory,rom)、磁碟或者光盘等各种可以存储程序代码的介质。这样,本技术实施例不限制于任何特定的硬件和软件结合。
169.对应地,本技术实施例再提供一种计算机程序产品,所述计算机程序产品包括计算机可执行指令,该计算机可执行指令被执行后,能够实现本技术实施例提供的人机互动方法中的步骤。
170.相应的,本技术实施例再提供一种计算机存储介质,所述计算机存储介质上存储有计算机可执行指令,所述该计算机可执行指令被处理器执行时实现上述实施例提供的人机互动方法的步骤。
171.相应的,本技术实施例提供一种电子设备,图9为本技术实施例提供的电子设备的组成结构示意图,如图9所示,所述电子设备900包括:一个处理器901、至少一个通信总线、通信接口902、至少一个外部通信接口和存储器903。其中,通信接口902配置为实现这些组件之间的连接通信。其中,通信接口902可以包括显示屏,外部通信接口可以包括标准的有线接口和无线接口。其中所述处理器901,配置为执行存储器中图像处理程序,以实现上述实施例提供的人机互动方法的步骤。
172.以上人机互动装置、电子设备和存储介质实施例的描述,与上述方法实施例的描述是类似的,具有同相应方法实施例相似的技术描述和有益效果,限于篇幅,可案件上述方法实施例的记载,故在此不再赘述。对于本技术人机互动装置、电子设备和存储介质实施例中未披露的技术细节,请参照本技术方法实施例的描述而理解。
173.应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本技术的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本技术的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术实施例的实施过程构成任何限定。上述本技术实施例序号仅仅为了描述,不代表实施例的优劣。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
174.在本技术所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
175.上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
176.另外,在本技术各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述
集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(read only memory,rom)、磁碟或者光盘等各种可以存储程序代码的介质。
177.或者,本技术上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机、服务器、或者网络设备等)执行本技术各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、rom、磁碟或者光盘等各种可以存储程序代码的介质。以上所述,仅为本技术的具体实施方式,但本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本技术的保护范围之内。因此,本技术的保护范围应以所述权利要求的保护范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1