一种基于人脸解析图的人脸遮挡移除和三维模型生成方法

文档序号:29810344发布日期:2022-04-27 03:58阅读:139来源:国知局
一种基于人脸解析图的人脸遮挡移除和三维模型生成方法

1.本公开的实施例涉及计算机视觉领域,具体涉及一种基于人脸解析图的人脸遮挡移除和三维模型生成方法。


背景技术:

2.随着计算机信息技术的发展,如何根据二维人脸照片生成三维人脸模型成为一项重要的研究课题。目前,在根据二维人脸照片生成三维人脸模型时,通常采用的方式为:使用深度学习方法根据二维图获得三维人脸图。
3.然而,当采用上述方式根据二维人脸照片生成三维人脸模型时,经常会存在如下技术问题:
4.使用深度学习方法根据二维图获得三维人脸图时,无法有效去除人脸图像中的遮挡。


技术实现要素:

5.本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
6.本公开的一些实施例提出了人脸遮挡移除和三维模型生成方法、装置、设备和介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
7.第一方面,本公开的一些实施例提供了一种人脸遮挡移除和三维模型生成方法,该方法包括:将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图;将上述遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组;对上述人脸面部特征点组中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图;将上述遮挡人脸解析图和上述特征点人脸解析图进行组合处理,得到无遮挡人脸解析图;将上述无遮挡人脸解析图和上述遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图;将上述无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。
8.第二方面,本公开的一些实施例提供了一种人脸遮挡移除和三维模型生成装置,装置包括:第一输入单元,被配置成将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图;第二输入单元,被配置成将上述遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组;连接处理单元,被配置成对上述人脸面部特征点组中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图;组合处理单元,被配置成将上述遮挡人脸解析图和上述特征点人脸解析图进行组合处理,得到无遮挡人脸解析图;第三输入单元,被配置成将上述无遮挡人脸解析图和上述遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图;第四输入单元,被配置成将上述无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。
9.第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;
存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
10.第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
11.本公开的上述各个实施例中具有如下有益效果:通过本公开的一些实施例的人脸遮挡移除和三维模型生成方法,可以有效去除人脸图像中的遮挡。具体来说,造成无法有效去除人脸图像中的遮挡的原因在于:使用深度学习方法根据二维图获得三维人脸图时,无法有效去除人脸图像中的遮挡。基于此,本公开的一些实施例的人脸遮挡移除和三维模型生成方法,首先,将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图。由此,可以为得到无遮挡人脸解析图提供数据支持。其次,将上述遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组;对上述人脸面部特征点组中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图。由此,可以为得到无遮挡人脸解析图提供数据支持。并且,因为提取了人脸面部特征点,可以将人脸面部特征点与深度学习的方法进行结合,生成三维人脸模型,从而可以有效去除人脸图像中的遮挡。然后,将上述遮挡人脸解析图和上述特征点人脸解析图进行组合处理,得到无遮挡人脸解析图。由此,便于生成无遮挡人脸渲染图。之后,将上述无遮挡人脸解析图和上述遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图。由此,可以得到三维人脸模型。最后,将上述无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。由此,完成了三维人脸模型的生成。有效去除了人脸图像中的遮挡。
附图说明
12.结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
13.图1是本公开的一些实施例的人脸遮挡移除和三维模型生成方法的一个应用场景的示意图;
14.图2是根据本公开的人脸遮挡移除和三维模型生成方法的一些实施例的流程图;
15.图3是根据本公开的人脸遮挡移除和三维模型生成装置的一些实施例的结构示意图;
16.图4是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
17.下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
18.另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
19.需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单
元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
20.需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
21.本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
22.下面将参考附图并结合实施例来详细说明本公开。
23.图1是本公开的一些实施例的人脸遮挡移除和三维模型生成方法的一个应用场景的示意图。
24.在图1的应用场景中,首先,计算设备101可以将遮挡人脸图102输入至预先训练的深度学习网络,得到遮挡人脸解析图103。其次,计算设备101可以将上述遮挡人脸图102输入至预先训练的特征点抽取网络,得到人脸面部特征点组104。然后,计算设备101可以对上述人脸面部特征点组104中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图105。之后,计算设备101可以将上述遮挡人脸解析图103和上述特征点人脸解析图105进行组合处理,得到无遮挡人脸解析图106。再然后,计算设备101可以将上述无遮挡人脸解析图106和上述遮挡人脸图102输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图107。最后,计算设备101可以将上述无遮挡人脸渲染图107输入至预先训练的三维人脸合成模型,得到三维人脸模型108。
25.需要说明的是,上述计算设备101可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
26.应该理解,图1中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
27.继续参考图2,示出了根据本公开的人脸遮挡移除和三维模型生成方法的一些实施例的流程200。该人脸遮挡移除和三维模型生成方法,包括以下步骤:
28.步骤201,将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图。
29.在一些实施例中,人脸遮挡移除和三维模型生成方法的执行主体(例如图1所示的计算设备101)可以将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图。其中,上述深度学习网络可以是提取遮挡人脸图中的人脸面部特征向量后,将人脸面部特征向量融合得到遮挡人脸解析图的网络,上述深度学习网络可以包括但不限于:segnet网络。
30.步骤202,将遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组。
31.在一些实施例中,上述执行主体可以将上述遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组。其中,上述特征点抽取网络可以是用于从遮挡人脸图中抽取预设数目个人脸面部特征点的网络。上述预设数目可以是预先设置的抽取人脸面部特征点的数目。例如,上述预设数目可以是:68个。上述人脸面部特征点可以是特征点抽取网络抽取的用于表征人脸面部特征的点。这里,人脸面部特征可以是:人脸皮肤、鼻、眼、眉毛
和嘴唇。
32.可选地,在步骤202之前,将无遮挡人脸图样本输入至轻量级神经网络以对上述轻量级神经网络进行训练,得到训练后的轻量级神经网络作为特征点抽取网络。
33.在一些实施例中,上述执行主体可以将无遮挡人脸图样本输入至轻量级神经网络以对上述轻量级神经网络进行训练,得到训练后的轻量级神经网络作为特征点抽取网络。其中,上述轻量级神经网络可以是初始的用于训练后得到特征点抽取网络的网络,上述轻量级神经网络可以包括但不限于:mobilenet-v3网络。
34.作为示例,将无遮挡人脸图样本输入至轻量级神经网络以对上述轻量级神经网络进行训练,得到训练后的轻量级神经网络作为特征点抽取网络可以包括以下步骤:
35.第一步,确定上述轻量级神经网络的网络结构以及初始化上述轻量级神经网络的网络参数。
36.第二步,获取无遮挡人脸图样本。其中,无遮挡人脸图样本包括无遮挡人脸图和对应上述无遮挡人脸图的人脸面部特征点组。
37.第三步,将上述无遮挡人脸图样本中的无遮挡人脸图和与上述人脸面部特征点组分别作为上述轻量级神经网络的输入和期望输出,利用深度学习方法训练上述轻量级神经网络。
38.第四步,将训练后的上述轻量级神经网络确定为上述特征点抽取网络。
39.实践中,对轻量级神经网络进行训练使用的损失函数为:
[0040][0041]
其中,为对轻量级神经网络进行训练使用的损失函数,为人脸特征值组成的矩阵中的第i个人脸特征值,为人脸特征真值组成的矩阵中的第i个人脸特征真值,zr为人脸特征值组成的矩阵,为人脸特征真值组成的矩阵,|| ||2表示2-范数,表示2-范数的平方,人脸特征值为上述无遮挡人脸图中的人脸面部特征点的坐标值,人脸特征真值为上述人脸面部特征点组中的人脸面部特征点的坐标值。
[0042]
步骤203,对人脸面部特征点组中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图。
[0043]
在一些实施例中,上述执行主体可以对上述人脸面部特征点组中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图。其中,上述特征点人脸解析图包括:人脸皮肤、鼻、眼、眉毛和嘴唇。上述连接处理可以是通过各种方法对人脸面部特征点进行连接处理。这里,可以通过opencv算法对人脸面部特征点进行连接处理。
[0044]
步骤204,将遮挡人脸解析图和特征点人脸解析图进行组合处理,得到无遮挡人脸解析图。
[0045]
在一些实施例中,上述执行主体可以将上述遮挡人脸解析图和上述特征点人脸解析图进行组合处理,得到无遮挡人脸解析图。
[0046]
实践中,上述执行主体可以通过以下步骤得到无遮挡人脸解析图:
[0047]
第一步,对上述遮挡人脸解析图进行备份处理,得到备份遮挡人脸解析图作为目标解析图。
[0048]
第二步,对于上述特征点人脸解析图中的每个特征像素,执行如下处理步骤:
[0049]
1、确定上述特征像素对应的灰度值是否在第一预设范围内。其中,上述第一预设范围可以是预先设置的像素对应的灰度值的范围。
[0050]
2、响应于确定上述特征像素对应的灰度值在上述第一预设范围内,确定上述遮挡人脸解析图中对应上述特征像素的遮挡像素对应的灰度值是否在上述第一预设范围内。
[0051]
3、响应于确定上述遮挡人脸解析图中对应上述特征像素的遮挡像素对应的灰度值不在上述第一预设范围内,将上述目标解析图中对应上述遮挡像素的目标像素替换为上述特征像素,以对上述目标解析图进行更新。
[0052]
第三步,将更新后的目标解析图确定为更新目标解析图。其中,上述更新后的目标解析图可以是将上述特征点人脸解析图中的各个特征像素执行处理步骤后的解析图。
[0053]
第四步,对于上述特征点人脸解析图中的每个特征像素,执行如下替换步骤:
[0054]
1、确定上述特征像素对应的灰度值是否在第二预设范围内。其中,上述第二预设范围可以是与上述第一预设范围不同的预先设置的像素对应的灰度值的范围。
[0055]
2、响应于确定上述特征像素对应的灰度值在上述第二预设范围内,确定上述遮挡人脸解析图中对应上述特征像素的遮挡像素对应的灰度值是否在上述第二预设范围内。
[0056]
3、响应于确定上述遮挡人脸解析图中对应上述特征像素的遮挡像素对应的灰度值不在上述第二预设范围内,将上述更新目标解析图中对应上述遮挡像素的更新目标像素替换为上述特征像素,以对上述更新目标解析图进行更新。
[0057]
第五步,将更新后的更新目标解析图确定为无遮挡人脸解析图。其中,上述更新后的更新目标解析图可以是上述特征点人脸解析图中的各个特征像素执行替换步骤后的解析图。
[0058]
步骤205,将无遮挡人脸解析图和遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图。
[0059]
在一些实施例中,上述执行主体可以将上述无遮挡人脸解析图和上述遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图。其中,上述人脸合成网络可以是将无遮挡人脸解析图和遮挡人脸图进行判别和修改,生成无遮挡人脸渲染图。可选地,在步骤205之前,将无遮挡人脸解析图样本和遮挡人脸图样本输入至生成式对抗网络以对上述生成式对抗网络进行训练,得到训练后的生成式对抗网络作为人脸合成网络。
[0060]
在一些实施例中,上述执行主体可以将无遮挡人脸解析图样本和遮挡人脸图样本输入至生成式对抗网络以对上述生成式对抗网络进行训练,得到训练后的生成式对抗网络作为人脸合成网络。其中,上述生成式对抗网络可以是初始的用于训练后得到人脸合成网络的网络,上述生成式对抗网络可以包括但不限于:pix2pixhd网络。
[0061]
作为示例,将无遮挡人脸解析图样本和遮挡人脸图样本输入至生成式对抗网络以对上述生成式对抗网络进行训练,得到训练后的生成式对抗网络作为人脸合成网络可以包括以下步骤:
[0062]
第一步,确定上述生成式对抗网络的网络结构以及初始化上述生成式对抗网络的网络参数。
[0063]
第二步,获取无遮挡人脸解析图样本和遮挡人脸图样本。其中,无遮挡人脸解析图样本包括无遮挡人脸解析图,遮挡人脸图样本包括遮挡人脸图和对应上述遮挡人脸图的无遮挡人脸渲染图。
[0064]
第三步,将上述无遮挡人脸解析图样本中的无遮挡人脸解析图和上述遮挡人脸图样本中的遮挡人脸图作为上述生成式对抗网络的输入,以及,将上述遮挡人脸图样本中的无遮挡人脸渲染图作为上述生成式对抗网络的期望输出,利用深度学习方法训练上述生成式对抗网络。
[0065]
第四步,将训练后的上述生成式对抗网络确定为上述人脸合成网络。
[0066]
实践中,对生成式对抗网络进行训练使用的损失函数为:
[0067]
对抗损失函数:
[0068][0069]
其中,为对抗损失函数,i
fac
表示遮挡人脸图,d
1,2
表示d1和d2两个不同类型的判别器,为评价函数表示符号,m
α
表示遮挡人脸解析图,i
out
表示无遮挡人脸渲染图。
[0070]
特征符合度损失函数:
[0071][0072]
其中,为特征符合度损失函数,为评价函数表示符号,t表示判别器d1和d2的总层数,表示判别器d1和d2作用在生成式对抗网络的第t层卷积层上,i
fac
表示遮挡人脸图,m
α
表示遮挡人脸解析图,i
out
表示无遮挡人脸渲染图,|| ||1表示1-范数。
[0073]
感知损失函数:
[0074][0075]
其中,为感知损失函数,为评价函数表示符号,n表示确定感知损失的总卷积层数,f
(o)
表示卷积神经网络vgg(visual geometry group)的第o层卷积层输出的特征图,i
fac
表示遮挡人脸图,i
out
表示无遮挡人脸渲染图,|| ||1表示1-范数,mo表示特征图的大小。
[0076]
建立对抗损失函数、特征符合度损失函数和感知损失函数的综合损失函数:
[0077][0078]
其中,为对抗损失函数,为特征符合度损失函数,为感知损失函数,λ1=λ2=10。
[0079]
步骤206,将无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。
[0080]
在一些实施例中,上述执行主体可以将上述无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。其中,上述三维人脸合成模型可以是将输入的无遮挡人脸渲染图建立模型,得到对应无遮挡人脸渲染图的三维人脸模型的模型。
[0081]
可选地,在步骤206之前,将无遮挡人脸渲染图样本输入至人脸三维重建网络以对上述人脸三维重建网络进行训练,得到训练后的人脸三维重建网络作为三维人脸合成模型。
[0082]
在一些实施例中,上述执行主体可以将无遮挡人脸渲染图样本输入至人脸三维重建网络以对上述人脸三维重建网络进行训练,得到训练后的人脸三维重建网络作为三维人脸合成模型。其中,上述人脸三维重建网络可以是初始的用于训练后得到三维人脸合成模型的网络,上述人脸三维重建网络可以包括但不限于:贝塞尔人脸模型bfm(basel face model)。
[0083]
作为示例,将无遮挡人脸渲染图样本输入至人脸三维重建网络以对上述人脸三维重建网络进行训练,得到训练后的人脸三维重建网络作为三维人脸合成模型可以包括以下步骤:
[0084]
第一步,确定上述人脸三维重建网络的网络结构以及初始化上述人脸三维重建网络的网络参数。
[0085]
第二步,获取无遮挡人脸渲染图样本。其中,无遮挡人脸渲染图样本包括无遮挡人脸渲染图和对应上述无遮挡人脸渲染图的三维人脸模型。
[0086]
第三步,将上述无遮挡人脸渲染图样本中的无遮挡人脸渲染图与上述三维人脸模型分别作为上述人脸三维重建网络的输入和期望输出,利用深度学习方法训练上述人脸三维重建网络。
[0087]
第四步,将训练后的上述人脸三维重建网络确定为上述三维人脸合成模型。
[0088]
实践中,对人脸三维重建网络进行训练使用的损失函数为:
[0089]
特征点损失函数:
[0090][0091]
其中,为特征点损失函数,n表示确定特征点损失的总卷积层数,为将无遮挡人脸渲染图i
out
输入至特征点抽取网络z
lmk
所得到的特征点图,为将渲染人脸图样本iy输入至特征点抽取网络z
lmk
所得到的特征点图,|| ||2表示2-范数,表示2-范数的平方,渲染人脸图样本iy可以是上述执行主体将无遮挡人脸图输入至上述人脸三维重建网络得到三维人脸模型,并通过各种方法确定渲染人脸图样本。这里,上述执行主体可以通过透视投影法确定渲染人脸图样本。
[0092]
像素等级损失函数:
[0093][0094]
其中,为像素等级损失函数,k为无遮挡人脸渲染图和渲染人脸图样本中的像素的像素序号,m为人脸投影区域,|| ||2表示2-范数,i
out
表示无遮挡人脸渲染图,iy为渲染人脸图样本,pk为遮挡区域的注意力权重数。这里,pk的具体数值如下所示:
[0095][0096]
正则损失函数:
[0097][0098]
其中,为正则损失函数,ω
α
=1.0,ω
β
=1.75e-3,和表示按照降序排列的相关性矩阵的特征值,|| ||2表示2-范数,表示2-范数的平方。
[0099]
人脸特征损失函数:
[0100][0101]
其中,为人脸特征损失函数,|| ||表示2-范数,g()表示人脸识别方法facenet方法中使用的特征提取函数,《g(i
out
),g(iy)》表示g(i
out
)与g(iy)的内积。
[0102]
建立特征点损失函数、像素等级损失函数、正则损失函数和人脸特征损失函数的综合损失函数:
[0103][0104]
其中,λ3=1.6e-3,λ4=1.4,λ5=3.7e-4,λ6=0.2,为特征点损失函数,为像素等级损失函数,为正则损失函数,为人脸特征损失函数。
[0105]
本公开的上述各个实施例中具有如下有益效果:通过本公开的一些实施例的人脸遮挡移除和三维模型生成方法,可以有效去除人脸图像中的遮挡。具体来说,造成无法有效去除人脸图像中的遮挡的原因在于:使用深度学习方法根据二维图获得三维人脸图时,无法有效去除人脸图像中的遮挡。基于此,本公开的一些实施例的人脸遮挡移除和三维模型生成方法,首先,将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图。由此,可以为得到无遮挡人脸解析图提供数据支持。其次,将上述遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组;对上述人脸面部特征点组中的各个人脸面部
特征点进行连接处理,以生成特征点人脸解析图。由此,可以为得到无遮挡人脸解析图提供数据支持。并且,因为提取了人脸面部特征点,可以将人脸面部特征点与深度学习的方法进行结合,生成三维人脸模型,从而可以有效去除人脸图像中的遮挡。然后,将上述遮挡人脸解析图和上述特征点人脸解析图进行组合处理,得到无遮挡人脸解析图。由此,便于生成无遮挡人脸渲染图。之后,将上述无遮挡人脸解析图和上述遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图。由此,可以得到三维人脸模型。最后,将上述无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。由此,完成了三维人脸模型的生成。有效去除了人脸图像中的遮挡。
[0106]
进一步参考图3,作为对上述各图所示方法的实现,本公开提供了一种人脸遮挡移除和三维模型生成装置的一些实施例,这些装置实施例与图2所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
[0107]
如图3所示,一些实施例的人脸遮挡移除和三维模型生成装置300包括:第一输入单元301、第二输入单元302、连接处理单元303、组合处理单元304、第三输入单元305和第四输入单元306。其中,第一输入单元301被配置成将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图;第二输入单元302被配置成将上述遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组;连接处理单元303被配置成对上述人脸面部特征点组中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图;组合处理单元304被配置成将上述遮挡人脸解析图和上述特征点人脸解析图进行组合处理,得到无遮挡人脸解析图;第三输入单元305被配置成将上述无遮挡人脸解析图和上述遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图;第四输入单元306被配置成将上述无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。
[0108]
可以理解的是,该装置300中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置300及其中包含的单元,在此不再赘述。
[0109]
下面参考图4,其示出了适于用来实现本公开的一些实施例的电子设备(如图1所示的计算设备101)400的结构示意图。图4示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
[0110]
如图4所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在只读存储器(rom)402中的程序或者从存储装置408加载到随机访问存储器(ram)403中的程序而执行各种适当的动作和处理。在ram 403中,还存储有电子设备400操作所需的各种程序和数据。处理装置401、rom 402以及ram403通过总线404彼此相连。输入/输出(i/o)接口405也连接至总线404。
[0111]
通常,以下装置可以连接至i/o接口405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置405;包括例如液晶显示器(lcd)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘等的存储装置408;以及通信装置409。通信装置409可以允许电子设备400与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图4中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
[0112]
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置409从网络上被下载和安装,或者从存储装置408被安装,或者从rom 402被安装。在该计算机程序被处理装置401执行时,执行本公开的一些实施例的方法中限定的上述功能。
[0113]
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、rf(射频)等等,或者上述的任意合适的组合。
[0114]
在一些实施方式中,客户端、服务器可以利用诸如http(hypertext transfer protocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“lan”),广域网(“wan”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
[0115]
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图。将上述遮挡人脸图输入至预先训练的特征点抽取网络,得到人脸面部特征点组。对上述人脸面部特征点组中的各个人脸面部特征点进行连接处理,以生成特征点人脸解析图。将上述遮挡人脸解析图和上述特征点人脸解析图进行组合处理,得到无遮挡人脸解析图。将上述无遮挡人脸解析图和上述遮挡人脸图输入至预先训练的人脸合成网络,得到无遮挡人脸渲染图。将上述无遮挡人脸渲染图输入至预先训练的三维人脸合成模型,得到三维人脸模型。
[0116]
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如java、smalltalk、c++,还包括常规的过程式程序设计语言—诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立
的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(lan)或广域网(wan)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
[0117]
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
[0118]
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一输入单元、第二输入单元、连接处理单元、组合处理单元、第三输入单元和第四输入单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一输入单元还可以被描述为“将遮挡人脸图输入至预先训练的深度学习网络,得到遮挡人脸解析图的单元”。
[0119]
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、片上系统(soc)、复杂可编程逻辑设备(cpld)等等。
[0120]
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1