人像处理方法和装置以及终端与流程

文档序号:21407338发布日期:2020-07-07 14:41阅读:256来源:国知局
本申请涉及终端
技术领域
:,并且更具体地,涉及终端
技术领域
:中的人像处理方法和装置以及终端。
背景技术
::随着通信技术的不断发展和进步,随时随地的大宽带服务为虚拟现实(virtualreality,vr)技术的应用发展提供更宽的平台。在众多的vr应用中,沉浸式视频通话是一种非常重要的业务。沉浸式视频通话指通话双方佩戴vr装置进行视频通话,每方通话者身边设置有摄像头,该摄像头能够拍摄通话者视频通话时所处的实景,并传输至对方的vr装置呈现出来,以实现模拟与对方实景对话的通话效果。然而,由于在用户佩戴vr装置进行视频通话的时候,vr装置会遮挡住用户面部的部分区域,例如,vr眼镜会遮挡住用户的眼睛,因此,通过摄像头拍摄用户的通话实景时,对方看不到用户的眼部动作和表情等面部特征,用户体验较差。技术实现要素:本申请提供一种人像处理方法和装置以及终端,能够还原用户被vr装置遮挡的面部特征,从而提高接收端的用户体验。第一方面,本申请提供一种人像处理方法,该方法包括:获取用户的第一图像,所述第一图像包括所述用户的面部,且所述用户的面部的部分区域被虚拟现实vr装置遮挡,所述部分区域包括所述用户的双眼所在的区域;将所述第一图像输入人像处理模型,得到第二图像,所述第二图像包括所述用户完整的面部,其中,所述人像处理模型是通过对样本训练数据集训练得到的,所述样本训练数据集包括多个原始图像和与所述多个原始图像对应的多个还原图像,其中,所述多个原始图像是对至少一个样本用户采集得到的,所述多个原始图像中的第一原始图像包括第一样本用户,且所述第一样本用户的面部的所述部分区域被vr装置遮挡,所述多个还原图像中第一还原图像包括所述第一样本用户完整的面部,所述至少一个样本用户包括所述第一样本用户;向接收端发送所述第二图像。采用本申请实施例提供的人像处理方法,能够还原用户被vr装置遮挡的面部特征,从而提高接收端的用户体验。可选地,所述人像处理装置还可以通过其它方式获取所述第一图像,本申请实施例对此不作限定。在第一种可能的实现方式中,所述人像处理装置可以接收所述第一摄像装置拍摄的第三图像,所述第三图像包括所述用户,所述人像处理装置从所述第三图像中截取所述第一图像。需要说明的是,所述第一摄像装置可以为如图1中所示的摄像装置120。所述第一摄像装置和所述人像处理装置可以分别为独立的装置,或所述第一摄像装置和所述人像处理装置可以集成在同一个设备中,本申请实施例对此不作限定。需要说明的是,所述第三图像可以至少包括所述用户。也就是说,所述第三图像还可以包括所述用户所处的环境或场景,本申请实施例对此不作限定。需要说明的是,本申请实施例仅以所述用户的面部的部分区域为双眼所在区域为例进行介绍,应理解,该部分区域还可以包括所述用户的面部的其他区域,本申请实施例对此不作限定。还需要说明的是,所述第一图像可以至少包括所述用户的面部,其中,所述用户的面部的部分区域被vr装置遮挡。可选地,所述第一图像还可以包括所述用户的其他部位和所述用户所处的环境中的至少一项,或所述第一图像还可以包括除所述用户以外的其他用户,其中,对其它用户的人像处理方法与对所述用户人像处理方法类似,为避免重复,此处不再赘述。还需要说明的是,当所述场景图像中还包括其它用户,且其它用户的面部的部分区域也被该其它用户佩戴的vr装置遮挡时,所述人像处理装置可以采用与所述用户的人像处理方法类似的方法对其它用户进行人像处理,为避免重复,此处不再赘述。还需要说明的是,本申请实施例中所述的第一图像可以为单独的图像,或可以为视频流中的一帧图像,本申请实施例对此不作限定。可选地,所述第一图像可以为原始拍摄的图像,或经过基础画质处理后得到的清晰度较高的图像。可选地,本申请实施例中所述的基础画质处理可以包括至少一种用于提高画质的图像处理步骤,例如:去噪、锐化、提高亮度等,本申请实施例对此不作限定。可选地,所述人像处理装置可以通过多种方式获取所述人像处理模型,本申请实施例对此不作限定。在第一种可能的实现方式中,所述人像处理装置可以在出厂时预配置所述人像处理模型。在第二种可能的实现方式中,所述人像处理装置可以从其它设备处接收所述人像处理模型,也就是说,所述人像处理模型是其它设备训练得到的。例如,所述人像处理模型可以存储在云端服务器,所述人像处理装置可以通过网络向云端服务器请求所述人像处理模型。在第三种可能的实现方式中,所述人像处理装置可以自己训练所述人像处理模型。可选地,以该用户的双眼所在区域被vr装置遮挡为例,所述人像处理装置可以获取样本训练数据集,对所述样本训练数据集进行训练和学习得到所述人像处理模型。其中,所述样本训练数据集包括多个原始图像和所述多个原始图像对应的多个还原图像,其中,所述多个原始图像是对至少一个样本用户采集得到的,所述多个原始图像中的第一原始图像包括第一样本用户,且所述第一样本用户的面部的所述部分区域被vr装置遮挡,所述多个还原图像中第一还原图像包括所述第一样本用户完整的面部,所述至少一个样本用户包括所述第一样本用户。可选地,所述人像处理装置可以通过多种方法对所述样本训练数据集进行训练和学习得到所述人像处理模型,本申请实施例对此不作限定。在一种可能的实现方式中,所述人像处理装置可以通过神经网络模型对所述样本训练数据集进行训练和学习得到所述人像处理模型。例如,该神经网络模型可以为生成对抗网络(generativeadversarialnets,gan)模型,该gan可以包括条件生成式对抗网络(conditionalgan)、深度卷积生成式对抗网络(deepconvolutiongan)等。采用本申请实施例提供的人像处理方法,通过人像处理模型能够还原第一图像中用户被vr装置遮挡的面部特征,从而提高接收端的用户体验。可选地,所述人像处理装置可以将所述第一图像和特征参考信息输入所述人像处理模型,得到所述第二图像。其中,所述特征参考信息包括眼部特征参数和头部特征参数中的至少一项,所述眼部特征参数包括位置信息、尺寸信息、视角信息中的至少一项,所述位置信息用于指示所述用户的两只眼睛中每只眼睛的位置,所述尺寸信息用于指示所述每只眼睛的尺寸、所述视角信息用于指示所述每只眼睛的眼球注视角度,所述头部特征参数包括所述用户的头部的三轴姿态角和加速度。采用本申请实施例提供的人像处理方法,结合第一图像和特征参考信息,输入人像处理装置,通过提供更多的人像相关特征,能够提高被遮挡区域的还原度和真实性。可选地,所述人像处理装置可以通过多种方式获取所述特征参考信息,本申请实施例对此不作限定。(1)获取眼部特征参数的方式在第一种可能的实现方式中,所述人像处理装置可以接收第二摄像装置拍摄的第四图像,所述第二摄像装置为所述vr装置内置的摄像装置,所述第四图像包括所述用户的两只眼睛;所述人像处理装置可以从所述第四图像中提取所述眼部特征参数。需要说明的是,该第二摄像装置可以为所述vr装置内置的摄像装置,例如:内置的红外(infrared,ir)摄像头。可选地,本申请实施例仅以所述第二摄像装置为vr装置上的内置摄像装置为例进行介绍,所述第二摄像装置还可以为设置在其他位置的能够拍摄到所述用户被vr装置遮挡的面部区域的真实图像的摄像装置,本申请实施例对此不作限定。在第二种可能的实现方式中,所述人像处理装置可以从本地存储的所述用户的多个图像中提取所述眼部特征参数,其中,所述多个图像包括所述用户的眼睛。需要说明的是,所述多个图像可以为所述用户日常拍摄的包含面部的照片,例如:自拍照。在第三种可能的实现方式中,所述人像处理装置可以通过用户日常拍摄的照片,建立该用户的面部特征数据库,该面部特征数据库中包括面部各器官的特征参数,例如眼部特征参数,所述人像处理装置可以从该面部特征数据库中调取该眼部特征参数。在第四种可能的实现方式中,所述人像处理装置可以从其它测量装置,如眼动跟踪传感器处接收所述眼部特征参数。可选地,所述多个图像和所述面部特征数据库还可以存储在云端,所述人像处理装置可以通过网络向云端请求,本申请实施例对此不作限定。需要说明的是,在通过所述人像处理模型对所述第一图像中被遮挡的内容进行还原的时候,由于vr装置主要遮挡了用户的眼部区域,因此,结合用户的眼部特征参数,能够提高被遮挡内容的还原度和真实性。(2)获取头部特征参数的方式在一种可能的实现方式中,所述人像处理装置可以接收惯性测量装置测量的所述头部特征参数。需要说明的是,惯性测量装置,也可以成为惯性测量单元(inertialmeasurementunit,imu)是测量物体三轴姿态角(或角速率)以及加速度的装置。一般的,一个imu包含了三个单轴的加速度计和三个单轴的陀螺,加速度计检测物体在载体坐标系统独立三轴的加速度信号,而陀螺检测载体相对于导航坐标系的角速度信号,测量物体在三维空间中的角速度和加速度,并以此解算出物体的姿态。可选地,所述惯性测量装置可以为固定在所述用户头部的独立的测量设备,或所述惯性测量装置可以集成在所述vr装置内,本申请实施例对此不作限定。需要说明的是,在通过所述人像处理模型对所述第一图像中被遮挡的内容进行还原的时候,由于用户的头部可能处于运动状态,即具有运动速度和转动角度,因此,结合用户的头部特征参数,能够进一步提高被遮挡内容的还原度和真实性。可选地,所述特征参考信息还可以包括其他特征参数,例如:鼻子特征参数、脸型特征参数,发型特征参数等能够描述所述用户的人像特征的参数,本申请实施例对此不作限定。可选地,所述人像处理装置可以向所述接收端发送所述第二图像,或所述人像处理装置可以向所述接收端发送目标图像,所述目标图像为对所述第二图像进行合成或拼接后的图像,或所述人像处理装置可以向所述接收端发送视频流,所述视频流中包括所述第二图像或所述目标图像,本申请实施例对此不作限定。相应地,所述人像处理装置可以向所述接收端发送所述第二图像,或包含所述第二图像的目标图像或视频流。可选地,所述人像处理装置可以通过多种方式生成所述视频流,本申请实施例对此不作限定。在一种可能的实现方式中,所述人像处理装置向接收端发送所述第二图像,包括:所述人像处理装置将所述第二图像和第五图像进行拼接,得到目标图像,其中,所述第五图像为从所述第四图像中截取所述第一图像后的图像;所述人像处理装置向所述接收端发送所述目标图像。在一种可能的实现方式中,所述人像处理装置向接收端发送所述第二图像,包括:所述人像处理装置将所述第二图像和所述第四图像进行合成,得到目标图像,其中,所述第二图像覆盖在所述第四图像中的所述第一图像的上层;所述人像处理装置向所述接收端发送所述目标图像。可选地,所述人像处理装置可以通过多种方式生成所述视频流,本申请实施例对此不作限定。在一种可能的实现方式中,所述人像处理装置可以对所述第二图像进行视频编码,得到视频图像;根据所述视频图像,得到所述视频流,所述视频流包括所述视频图像。需要说明的是,考虑到还原后的第二图像中还原了用户被vr装置遮挡的眼部区域,而实际情况是所述用户面部佩戴了vr装置,因此,所述第二图像与实际情况之间存在一定的差异。因此,所述人像处理装置可以在所述第二图像中所述用户的眼部区域上叠加眼罩图层,其中,所述眼罩图层经过第一透明度的透视化处理,以模拟所述用户佩戴了vr装置,能够提高还原的真实度。还需要说明的是,该第一透明度的取值应满足既能够看出用户佩戴vr装置,又不影响看到vr装置下被遮挡的眼部区域的显示,本申请实施例对该第一透明度的具体数值不作限定。第二方面,本申请实施例提供一种终端,包括:处理器和与所述处理器耦合的收发器,所述处理器用于控制所述收发器获取用户的第一图像,所述第一图像包括所述用户的面部,且所述用户的面部的部分区域被虚拟现实vr装置遮挡;将所述第一图像输入人像处理模型,得到第二图像,所述第二图像包括所述用户完整的面部,其中,所述人像处理模型是通过对样本训练数据集训练得到的,所述样本训练数据集包括多个原始图像和与所述多个原始图像对应的多个还原图像,其中,所述多个原始图像是对至少一个样本用户采集得到的,所述多个原始图像中的第一原始图像包括第一样本用户,且所述第一样本用户的面部的所述部分区域被vr装置遮挡,所述多个还原图像中第一还原图像包括所述第一样本用户完整的面部,所述至少一个样本用户包括所述第一样本用户;并控制所述收发器向接收端发送所述第二图像。在一种可能的实现方式中,所述处理器具体用于:将所述第一图像和特征参考信息输入所述人像处理模型,得到所述第二图像,其中,所述特征参考信息包括眼部特征参数和头部特征参数中的至少一项,所述眼部特征参数包括位置信息、尺寸信息、视角信息中的至少一项,所述位置信息用于指示所述用户的两只眼睛中每只眼睛的位置,所述尺寸信息用于指示所述每只眼睛的尺寸、所述视角信息用于指示所述每只眼睛的眼球注视角度,所述头部特征参数包括所述用户的头部的三轴姿态角和加速度。在一种可能的实现方式中,所述特征参考信息包括所述眼部特征参数,所述处理器还用于在所述将所述第一图像和特征参考信息输入所述人像处理模型,得到所述第二图像之前,控制所述收发器接收第一摄像装置拍摄的所述用户的第三图像,所述第三图像包括所述用户的所述两只眼睛,其中,所述第一摄像头为所述vr装置的内置摄像装置;所述处理器用于从所述第二图像中提取所述眼部特征参数。在一种可能的实现方式中,所述特征参考信息包括所述头部特征参数,所述处理器还用于在所述将所述第一图像和特征参考信息输入所述人像处理模型,得到所述第二图像之前,控制所述收发器接收惯性测量装置测量的所述头部特征参数。在一种可能的实现方式中,所述处理器具体用于控制所述收发器接收第二摄像头拍摄的所述第一图像。在一种可能的实现方式中,所述处理器具体用于:控制所述收发器接收第二摄像头拍摄的第三图像,所述第三图像包括所述用户;从所述第三图像中截取所述第一图像。在一种可能的实现方式中,所述处理器还用于:将所述第二图像和第四图像进行拼接,得到目标图像,其中,所述第四图像为从所述第三图像中截取所述第一图像后的图像;控制所述收发器向所述接收端发送所述目标图像。在一种可能的实现方式中,所述处理器还用于:将所述第二图像和所述第三图像进行合成,得到目标图像,其中,所述第二图像覆盖在所述第三图像中的所述第一图像的上层;控制所述收发器向所述接收端发送所述目标图像。在一种可能的实现方式中,所述处理器还用于在所述第二图像中所述用户双眼所在的区域上叠加眼罩图层,所述眼罩图层经过第一透明度的透视化处理。在一种可能的实现方式中,所述人像处理模型是通过生成对抗网络模型对所述样本训练数据集训练得到的。第三方面,本申请还提供一种人像处理装置,用于执行上述第一方面或第一方面的任意可能的实现方式中的方法。具体地,人像处理装置可以包括用于执行上述第一方面或第一方面的任意可能的实现方式中的方法的单元。第四方面,本申请实施例还提供一种芯片装置,包括:通信接口和处理器,所述通信接口和所述处理器之间通过内部连接通路互相通信,所述处理器用于实现上述第一方面或其任意可能的实现方式中的方法。第五方面,本申请实施例还提供一种计算机可读存储介质,用于存储计算机程序,所述计算机程序包括用于实现上述第一方面或其任意可能的实现方式中的方法的指令。第六方面,本申请实施例还提供一种计算机程序产品,所述计算机程序产品中包含指令,当所述指令在计算机上运行时,使得计算机实现上述第一方面或其任意可能的实现方式中的方法。附图说明图1提供了本申请实施例的应用场景100的示意图;图2提供了本申请实施例的另一应用场景的示意图;图3提供了本申请实施例的人像处理方法200的示意性流程图;图4提供了本申请实施例的vr装置110的示意性框图;图5提供的本申请实施例的接收端显示界面的示意图;图6提供了本申请实施例的人像处理装置300的示意性框图;图7提供了本申请实施例的手机400的示意性框图;图8提供了本申请实施例的人像处理系统500的示意性框图。具体实施方式下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。图1示出了本申请实施例提供的应用场景的示意图。如图1所示,用户佩戴vr装置110。摄像装置120用于拍摄用户的场景图像,并将所述场景图像发送给人像处理装置130,其中,该场景图像包括该用户的面部,且该用户的面部的部分区域被vr装置110遮挡。人像处理装置130用于通过人像处理方法对该场景图像中该用户被vr装置遮挡的区域进行还原,得到目标图像,其中,该目标图像中包括该用户完整的面部。人像处理处理装置130还用于将该目标图像传输至接收端140进行显示。需要说明的是,所述场景图像至少包括所述用户的面部,图1中仅示意性示出该场景图像包括用户的面部的情况,但本申请实施例不限于此。可选地,所述场景图像还可以包括所述用户的其他部位和所述用户所处的环境中的至少一项,或所述场景图像还可以包括除所述用户以外的其他用户,本申请实施例对此不作限定。例如:图2示出了该场景图像包括用户全身的情况。还需要说明的是,当所述场景图像中还包括其它用户,且其它用户的面部的部分区域也被该其它用户佩戴的vr装置遮挡时,所述人像处理装置130可以采用与所述用户的人像处理方法类似的方法对其它用户进行人像处理,为避免重复,此处不再赘述。还需要说明的是,本申请实施例中所述的场景图像可以为单独的图像,或可以为视频流中的一帧图像,本申请实施例对此不作限定。还需要说明的是,本申请实施例适用于任何需要拍摄所述用户的场景图像的情况。例如:在所述用户与对侧用户进行视频通话的情况下,通过对侧用户的显示设备(接收端)显示所述用户的场景图像。需要说明的是,本申请实施例所述的接收端可以为任何能够接收所述终端发送的目标图像,并进行显示的显示设备,本申请实施例对此不作限定。又例如:在对所述用户进行监控的情况下,通过显示设备(接收端)显示所述用户的场景图像。可选地,所述接收端还可以为vr装置、手机、智能电视等具有显示屏的终端,本申请实施例对此不作限定。可选地,图1中的摄像装置120和人像处理装置130可以分别为独立的装置,或摄像装置120和人像处理装置130可以集成在同一个设备中,本申请实施例对此不作限定。需要说明的是,无论摄像装置120和人像处理装置130是集成在一个设备中还是分别是独立的装置,在下文的描述中,都以摄像装置和人像处理装置进行描述。需要说明的是,本申请实施例中所述的vr装置可以为能够实现虚拟现实功能的可穿戴设备。还需要说明的是,可穿戴设备也称为穿戴式智能设备,是应用穿戴式技术对日常穿戴进行智能化设计、开发出可以穿戴的设备的总称,如眼镜、头盔、面具等。可穿戴设备即直接穿在身上,或是整合到用户的配件的一种便携式设备。可穿戴设备不仅仅是一种硬件设备,更是通过软件支持以及数据交互、云端交互来实现强大的功能。广义穿戴式智能设备包括功能全、尺寸大、可不依赖智能手机实现完整或者部分的功能,如智能头盔或智能眼镜等,以及只专注于某一类应用功能,需要和其它设备如智能手机配合使用,如各类能够进行人像处理和/或图像显示的智能手环、智能首饰、贴片等,本申请实施例对此不作限定。可选地,所述人像处理装置130与所述接收端140之间可以通过有线方式或无线方式通信,本申请实施例对此不作限定。需要说明的是,上述有线方式可以为通过数据线连接、或通过内部总线连接实现通信。需要说明的是,上述无线方式可以为通过通信网络实现通信,该通信网络可以是局域网,也可以是通过中继(relay)设备转接的广域网,或者包括局域网和广域网。当该通信网络为局域网时,示例性的,该通信网络可以是wifi热点网络、wifip2p网络、蓝牙网络、zigbee网络或近场通信(nearfieldcommunication,nfc)网络等近距离通信网络。当该通信网络为广域网时,示例性的,该通信网络可以是第三代移动通信技术(3rd-generationwirelesstelephonetechnology,3g)网络、第四代移动通信技术(the4thgenerationmobilecommunicationtechnology,4g)网络、第五代移动通信技术(5th-generationmobilecommunicationtechnology,5g)网络、未来演进的公共陆地移动网络(publiclandmobilenetwork,plmn)或因特网等,本申请实施例对此不作限定。上面介绍了本申请适用的应用场景,下面将详细介绍本申请实施例提供的人像处理方法。图3示出了本申请实施例提供的人像处理方法200的示意性流程图,该方法200可以应用于图1中所述的应用场景,并由人像处理装置130执行。s210,第一摄像装置拍摄用户的第一图像,所述第一图像包括所述用户的面部,且所述用户的面部的部分区域被虚拟现实vr装置遮挡,所述部分区域包括所述用户的双眼所在的区域;s220,所述第一摄像装置向人像处理装置发送所述用户的第一图像;相应地,所述人像处理装置接收所述第一摄像装置发送的所述第一图像。可选地,s220中,所述人像处理装置还可以通过其它方式获取所述第一图像,本申请实施例对此不作限定。在第一种可能的实现方式中,所述人像处理装置可以接收所述第一摄像装置拍摄的第三图像,所述第三图像包括所述用户,所述人像处理装置从所述第三图像中截取所述第一图像。需要说明的是,所述第一摄像装置可以为如图1中所示的摄像装置120。所述第一摄像装置和所述人像处理装置可以分别为独立的装置,如人像处理装置为终端,第一摄像装置为摄像头;或所述第一摄像装置和所述人像处理装置可以集成在同一个设备,如终端中,本申请实施例对此不作限定。需要说明的是,所述第三图像可以至少包括所述用户。也就是说,所述第三图像还可以包括所述用户所处的环境或场景,本申请实施例对此不作限定。需要说明的是,本申请实施例仅以所述用户的面部的部分区域为双眼所在区域为例进行介绍,应理解,该部分区域还可以包括所述用户的面部的其他区域,本申请实施例对此不作限定。还需要说明的是,所述第一图像可以至少包括所述用户的面部,其中,所述用户的面部的部分区域被vr装置遮挡。可选地,所述第一图像还可以包括所述用户的其他部位和所述用户所处的环境中的至少一项,或所述第一图像还可以包括除所述用户以外的其他用户,其中,对其它用户的人像处理方法与对所述用户人像处理方法类似,为避免重复,此处不再赘述。还需要说明的是,当所述场景图像中还包括其它用户,且其它用户的面部的部分区域也被该其它用户佩戴的vr装置遮挡时,所述人像处理装置可以采用与所述用户的人像处理方法类似的方法对其它用户进行人像处理,为避免重复,此处不再赘述。还需要说明的是,本申请实施例中所述的第一图像可以为单独的图像,或可以为视频流中的一帧图像,本申请实施例对此不作限定。可选地,所述第一图像可以为原始拍摄的图像,或经过基础画质处理后得到的清晰度较高的图像。可选地,本申请实施例中所述的基础画质处理可以包括至少一种用于提高画质的图像处理步骤,例如:去噪、锐化、提高亮度等,本申请实施例对此不作限定。s230,所述人像处理装置将所述第一图像输入人像处理模型,得到第二图像,所述第二图像包括所述用户完整的面部,其中,所述人像处理模型是通过对样本训练数据集训练得到的,所述样本训练数据集包括多个原始图像和与所述多个原始图像对应的多个还原图像,其中,所述多个原始图像是对至少一个样本用户采集得到的,所述多个原始图像中的第一原始图像包括第一样本用户,且所述第一样本用户的面部的所述部分区域被vr装置遮挡,所述多个还原图像中第一还原图像包括所述第一样本用户完整的面部,所述至少一个样本用户包括所述第一样本用户。可选地,在s230之前,所述人像处理装置可以先获取所述人像处理模型。可选地,所述人像处理装置可以通过多种方式获取所述人像处理模型,本申请实施例对此不作限定。在第一种可能的实现方式中,所述人像处理装置可以在出厂时预配置所述人像处理模型。在第二种可能的实现方式中,所述人像处理装置可以从其它设备处接收所述人像处理模型,也就是说,所述人像处理模型是其它设备训练得到的。例如,所述人像处理模型可以存储在云端服务器,所述人像处理装置可以通过网络向云端服务器请求所述人像处理模型。在第三种可能的实现方式中,所述人像处理装置可以自己训练所述人像处理模型。下面将以人像处理装置自己训练所述人像处理模型为例,对该人像处理模型的训练过程进行介绍,其它设备训练该人像处理模型的过程与所述人像处理装置自己训练的过程类似,为避免重复,此处不再赘述。可选地,以该用户的双眼所在区域被vr装置遮挡为例,所述人像处理装置可以获取样本训练数据集,对所述样本训练数据集进行训练和学习得到所述人像处理模型。其中,所述样本训练数据集包括多个原始图像和所述多个原始图像对应的多个还原图像,其中,所述多个原始图像是对至少一个样本用户采集得到的,所述多个原始图像中的第一原始图像包括第一样本用户,且所述第一样本用户的面部的所述部分区域被vr装置遮挡,所述多个还原图像中第一还原图像包括所述第一样本用户完整的面部,所述至少一个样本用户包括所述第一样本用户。可选地,所述人像处理装置可以通过多种方法对所述样本训练数据集进行训练和学习得到所述人像处理模型,本申请实施例对此不作限定。在一种可能的实现方式中,所述人像处理装置可以通过神经网络模型对所述样本训练数据集进行训练和学习得到所述人像处理模型。例如,该神经网络模型可以为生成对抗网络(generativeadversarialnets,gan)模型,该gan可以包括条件生成式对抗网络(conditionalgan)、深度卷积生成式对抗网络(deepconvolutiongan)等。采用本申请实施例提供的人像处理方法,通过人像处理模型能够还原第一图像中用户被vr装置遮挡的面部特征,从而提高接收端的用户体验。可选地,s230中,所述人像处理装置可以将所述第一图像和特征参考信息输入所述人像处理模型,得到所述第二图像。其中,所述特征参考信息包括眼部特征参数和头部特征参数中的至少一项,所述眼部特征参数包括位置信息、尺寸信息、视角信息中的至少一项,所述位置信息用于指示所述用户的两只眼睛中每只眼睛的位置,所述尺寸信息用于指示所述每只眼睛的尺寸、所述视角信息用于指示所述每只眼睛的眼球注视角度,所述头部特征参数包括所述用户的头部的三轴姿态角和加速度。也就是说,在训练所述人像处理模型时使用的样本训练数据集可以包括多个原始图像、所述多个原始图像对应的多个还原图像和至少一个特征参考信息,其中,所述多个原始图像是对至少一个样本用户采集得到的,所述多个原始图像中的第一原始图像包括第一样本用户,且所述第一样本用户的面部的所述部分区域被vr装置遮挡,所述多个还原图像中第一还原图像包括所述第一样本用户完整的面部,所述至少一个样本用户包括所述第一样本用户,所述至少一个特征参考信息包括所述至少一个样本用户中每个样本用户的特征参考信息。采用本申请实施例提供的人像处理方法,结合第一图像和特征参考信息,输入人像处理装置,通过提供更多的人像相关特征,能够提高被遮挡区域的还原度和真实性。可选地,所述人像处理装置可以通过多种方式获取所述特征参考信息,本申请实施例对此不作限定。(1)获取眼部特征参数的方式在第一种可能的实现方式中,所述人像处理装置可以接收第二摄像装置拍摄的第四图像,所述第二摄像装置为所述vr装置内置的摄像装置,所述第四图像包括所述用户的两只眼睛;所述人像处理装置可以从所述第四图像中提取所述眼部特征参数。需要说明的是,该第二摄像装置可以为所述vr装置内置的摄像装置,例如:内置的红外(infrared,ir)摄像头。例如:如图4所示,所述第二摄像装置可以为如图1中所示的vr装置110中内置的摄像装置150。可选地,本申请实施例仅以所述第二摄像装置为vr装置上的内置摄像装置为例进行介绍,所述第二摄像装置还可以为设置在其他位置的能够拍摄到所述用户被vr装置遮挡的面部区域的真实图像的摄像装置,本申请实施例对此不作限定。在第二种可能的实现方式中,所述人像处理装置可以从本地存储的所述用户的多个图像中提取所述眼部特征参数,其中,所述多个图像包括所述用户的眼睛。需要说明的是,所述多个图像可以为所述用户日常拍摄的包含面部的照片,例如:自拍照。在第三种可能的实现方式中,所述人像处理装置可以通过用户日常拍摄的照片,建立该用户的面部特征数据库,该面部特征数据库中包括面部各器官的特征参数,例如眼部特征参数,所述人像处理装置可以从该面部特征数据库中调取该眼部特征参数。在第四种可能的实现方式中,所述人像处理装置可以从其它测量装置,如眼动跟踪传感器处接收所述眼部特征参数。可选地,所述多个图像和所述面部特征数据库还可以存储在云端,所述人像处理装置可以通过网络向云端请求,本申请实施例对此不作限定。需要说明的是,在通过所述人像处理模型对所述第一图像中被遮挡的内容进行还原的时候,由于vr装置主要遮挡了用户的眼部区域,因此,结合用户的眼部特征参数,能够提高被遮挡内容的还原度和真实性。(2)获取头部特征参数的方式在一种可能的实现方式中,所述人像处理装置可以接收惯性测量装置测量的所述头部特征参数。需要说明的是,惯性测量装置,也可以成为惯性测量单元(inertialmeasurementunit,imu)是测量物体三轴姿态角(或角速率)以及加速度的装置。一般的,一个imu包含了三个单轴的加速度计和三个单轴的陀螺,加速度计检测物体在载体坐标系统独立三轴的加速度信号,而陀螺检测载体相对于导航坐标系的角速度信号,测量物体在三维空间中的角速度和加速度,并以此解算出物体的姿态。可选地,所述惯性测量装置可以为固定在所述用户头部的独立的测量设备,或所述惯性测量装置可以集成在所述vr装置内,本申请实施例对此不作限定。需要说明的是,在通过所述人像处理模型对所述第一图像中被遮挡的内容进行还原的时候,由于用户的头部可能处于运动状态,即具有运动速度和转动角度,因此,结合用户的头部特征参数,能够进一步提高被遮挡内容的还原度和真实性。可选地,所述特征参考信息还可以包括其他特征参数,例如:鼻子特征参数、脸型特征参数,发型特征参数等能够描述所述用户的人像特征的参数,本申请实施例对此不作限定。s240,所述人像处理装置向接收端发送所述第二图像;相应地,所述接收端接收所述人像处理装置发送的所述第二图像。可选地,s240中,所述人像处理装置可以向所述接收端发送所述第二图像,或所述人像处理装置可以向所述接收端发送目标图像,所述目标图像为对所述第二图像进行合成或拼接后的图像,或所述人像处理装置可以向所述接收端发送视频流,所述视频流中包括所述第二图像或所述目标图像,本申请实施例对此不作限定。相应地,s240中,所述人像处理装置可以向所述接收端发送所述第二图像,或包含所述第二图像的目标图像或视频流。可选地,在s240之前,所述人像处理装置可以通过多种方式生成所述目标图像,本申请实施例对此不作限定。在第一种可能的实现方式中,所述人像处理装置可以将所述第二图像和第五图像进行拼接,得到目标图像,其中,所述第五图像为从所述第四图像中截取所述第一图像后的图像。在第二种可能的实现方式中,所述人像处理装置可以将所述第二图像和所述第四图像进行合成,得到目标图像,其中,所述第二图像覆盖在所述第四图像中的所述第一图像的上层。可选地,在s240之前,所述人像处理装置可以通过多种方式生成所述视频流,本申请实施例对此不作限定。在一种可能的实现方式中,所述人像处理装置可以对所述第二图像进行视频编码,得到视频图像;根据所述视频图像,得到所述视频流,所述视频流包括所述视频图像。需要说明的是,考虑到还原后的第二图像中还原了用户被vr装置遮挡的眼部区域,而实际情况是所述用户面部佩戴了vr装置,因此,所述第二图像与实际情况之间存在一定的差异。在一种可能的实现方式中,如图5所示,所述人像处理装置可以在所述第二图像中所述用户的眼部区域上叠加眼罩图层,其中,所述眼罩图层经过第一透明度的透视化处理。还需要说明的是,该第一透明度的取值应满足既能够看出用户佩戴vr装置,又不影响看到vr装置下被遮挡的眼部区域的显示,本申请实施例对该第一透明度的具体数值不作限定。采用本申请实施例提供的人像处理方法,通过在第二图像中所述用户的眼部区域上叠加经过上述透视化处理后的眼罩图层,能够模拟所述用户佩戴的vr装置,从而提高还原的真实度。需要说明的是,以上述人像处理装置可以为终端,终端为了实现上述功能,其包含了执行各个功能相应的硬件和/或软件模块。结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。本实施例可以根据上述方法示例对终端进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。在采用对应各个功能划分各个功能模块的情况下,图6示出了上述实施例中涉及的人像处理装置300的一种可能的组成示意图,如图6所示,该装置300可以包括:收发单元310和处理单元320。其中,处理单元320可以控制收发单元310实现上述方法200实施例中所述的方法,和/或用于本文所描述的技术的其他过程。需要说明的是,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。本实施例提供的装置300,用于执行上述人像处理方法,因此可以达到与上述实现方法相同的效果。在采用集成的单元的情况下,装置300可以包括处理模块、存储模块和通信模块。其中,处理模块可以用于对装置300的动作进行控制管理,例如,可以用于支持装置200执行上述各个单元执行的步骤。存储模块可以用于支持装置300执行存储程序代码和数据等。通信模块,可以用于装置300与其他设备的通信。其中,处理模块可以是处理器或控制器。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,数字信号处理(digitalsignalprocessing,dsp)和微处理器的组合等等。存储模块可以是存储器。通信模块具体可以为射频电路、蓝牙芯片、wi-fi芯片等与其他终端交互的设备。在一种可能的实现方式中,本申请实施例所涉及的装置300可以为终端。需要说明的是,本申请实施例中所述的终端可以是移动的或者固定的,例如该终端可以是手机、照相机、摄像机、平板个人电脑(tabletpersonalcomputer)、智能电视、笔记本电脑(laptopcomputer)、个人数字助理(personaldigitalassistant,pda)、个人计算机(personalcomputer)、或智能手表等可穿戴式设备(wearabledevice)等,本申请实施例对此不作限定。以终端是手机为例,图7示出了手机400的结构示意图。如图7所示,手机400可以包括处理器410,外部存储器接口420,内部存储器421,通用串行总线(universalserialbus,usb)接口430,充电管理模块440,电源管理模块441,电池442,天线1,天线2,移动通信模块450,无线通信模块460,音频模块470,扬声器470a,受话器470b,麦克风470c,耳机接口470d,传感器模块480,按键490,马达491,指示器492,摄像头493,显示屏494,以及用户标识模块(subscriberidentificationmodule,sim)卡接口495等。可以理解的是,本申请实施例示意的结构并不构成对手机400的具体限定。在本申请另一些实施例中,手机400可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。处理器410可以包括一个或多个处理单元,例如:处理器410可以包括应用处理器(applicationprocessor,ap),调制解调处理器,图形处理器(graphicsprocessingunit,gpu),图像信号处理器(imagesignalprocessor,isp),控制器,视频编解码器,数字信号处理器(digitalsignalprocessor,dsp),基带处理器,和/或神经网络处理器(neural-networkprocessingunit,npu)等。其中,不同的处理单元可以是独立的部件,也可以集成在一个或多个处理器中。在一些实施例中,手机400也可以包括一个或多个处理器410。其中,控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。在其他一些实施例中,处理器410中还可以设置存储器,用于存储指令和数据。示例性地,处理器410中的存储器可以为高速缓冲存储器。该存储器可以保存处理器410刚用过或循环使用的指令或数据。如果处理器410需要再次使用该指令或数据,可从所述存储器中直接调用。这样就避免了重复存取,减少了处理器410的等待时间,因而提高了手机400处理数据或执行指令的效率。在一些实施例中,处理器410可以包括一个或多个接口。接口可以包括集成电路间(inter-integratedcircuit,i2c)接口,集成电路间音频(inter-integratedcircuitsound,i2s)接口,脉冲编码调制(pulsecodemodulation,pcm)接口,通用异步收发传输器(universalasynchronousreceiver/transmitter,uart)接口,移动产业处理器接口(mobileindustryprocessorinterface,mipi),通用输入输出(general-purposeinput/output,gpio)接口,sim卡接口,和/或usb接口等。其中,usb接口440是符合usb标准规范的接口,具体可以是miniusb接口,microusb接口,usbtypec接口等。usb接口440可以用于连接充电器为手机400充电,也可以用于手机400与外围设备之间传输数据。该usb接口440也可以用于连接耳机,通过耳机播放音频。可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对手机400的结构限定。在本申请另一些实施例中,手机400也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。充电管理模块440用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块440可以通过usb接口430接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块440可以通过手机400的无线充电线圈接收无线充电输入。充电管理模块440为电池442充电的同时,还可以通过电源管理模块441为手机供电。电源管理模块441用于连接电池442,充电管理模块440与处理器410。电源管理模块441接收电池442和/或充电管理模块440的输入,为处理器410,内部存储器421,外部存储器,显示屏494,摄像头494,和无线通信模块460等供电。电源管理模块441还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块441也可以设置于处理器410中。在另一些实施例中,电源管理模块441和充电管理模块440也可以设置于同一个器件中。手机400的无线通信功能可以通过天线1,天线2,移动通信模块450,无线通信模块460,调制解调处理器以及基带处理器等实现。天线1和天线2用于发射和接收电磁波信号。手机400中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线4复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。移动通信模块450可以提供应用在手机400上的包括2g/3g/4g/5g等无线通信的解决方案。移动通信模块450可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(lownoiseamplifier,lna)等。移动通信模块450可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块450还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块450的至少部分功能模块可以被设置于处理器410中。在一些实施例中,移动通信模块450的至少部分功能模块可以与处理器410的至少部分模块被设置在同一个器件中。无线通信模块460可以提供应用在手机400上的包括无线局域网(wirelesslocalareanetworks,wlan)(如无线保真(wirelessfidelity,wi-fi)网络),蓝牙(bluetooth,bt),全球导航卫星系统(globalnavigationsatellitesystem,gnss),调频(frequencymodulation,fm),近距离无线通信技术(nearfieldcommunication,nfc),红外技术(infrared,ir)等无线通信的解决方案。可选地,无线通信模块460可以是集成至少一个通信处理模块的一个或多个器件,其中,一个通信处理模块可以对应于一个网络接口,该网络接口可以设置在不同的业务功能模式,设置在不同模式下的网络接口可以建立与该模式对应的网络连接。。例如:通过p2p功能模式下的网络接口可以建立支持p2p功能的网络连接,通过sta功能模式下的网络接口可以建立支持sta功能的网络连接,通过ap模式下的网络接口可以建立支持ap功能的网络连接。无线通信模块460经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器410。无线通信模块460还可以从处理器410接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。手机400通过gpu,显示屏494,以及应用处理器等实现显示功能。gpu为图像处理的微处理器,连接显示屏494和应用处理器。gpu用于执行数学和几何计算,用于图形渲染。处理器410可包括一个或多个gpu,其执行程序指令以生成或改变显示信息。显示屏494用于显示图像,视频等。显示屏494包括显示面板。显示面板可以采用液晶显示屏(liquidcrystaldisplay,lcd),有机发光二极管(organiclight-emittingdiode,oled),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganiclightemittingdiode的,amoled),柔性发光二极管(flexlight-emittingdiode,fled),miniled,microled,micro-oled,量子点发光二极管(quantumdotlightemittingdiodes,qled)等。在一些实施例中,手机400可以包括1个或多个显示屏494。在本申请的一些实施例中,当显示面板采用oled、amoled、fled等材料时,上述图7中的显示屏494可以被弯折。这里,上述显示屏494可以被弯折是指显示屏可以在任意部位被弯折到任意角度,并可以在该角度保持,例如,显示屏494可以从中部左右对折。也可以从中部上下对折。本申请中,将可以被弯折的显示屏称为可折叠显示屏。其中,该触摸显示屏可以是一块屏幕,也可以是多块屏幕拼凑在一起组合成的显示屏,在此不做限定。手机400的显示屏494可以是一种柔性屏,目前,柔性屏以其独特的特性和巨大的潜力而备受关注。柔性屏相对于传统屏幕而言,具有柔韧性强和可弯曲的特点,可以给用户提供基于可弯折特性的新交互方式,可以满足用户对于手机的更多需求。对于配置有可折叠显示屏的手机而言,手机上的可折叠显示屏可以随时在折叠形态下的小屏和展开形态下大屏之间切换。因此,用户在配置有可折叠显示屏的手机上使用分屏功能,也越来越频繁。手机400可以通过isp,摄像头493,视频编解码器,gpu,显示屏494以及应用处理器等实现拍摄功能。isp用于处理摄像头494反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给isp处理,转化为肉眼可见的图像。isp还可以对图像的噪点,亮度,肤色进行算法优化。isp还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,isp可以设置在摄像头494中。摄像头493用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(chargecoupleddevice,ccd)或互补金属氧化物半导体(complementarymetal-oxide-semiconductor,cmos)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给isp转换成数字图像信号。isp将数字图像信号输出到dsp加工处理。dsp将数字图像信号转换成标准的rgb,yuv等格式的图像信号。在一些实施例中,手机400可以包括1个或多个摄像头493。数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当手机400在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。视频编解码器用于对数字视频压缩或解压缩。手机400可以支持一种或多种视频编解码器。这样,手机400可以播放或录制多种编码格式的视频,例如:动态图像专家组(movingpictureexpertsgroup,mpeg)1,mpeg2,mpeg4,mpeg4等。npu为神经网络(neural-network,nn)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递业务功能,对输入信息快速处理,还可以不断的自学习。通过npu可以实现手机400的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。外部存储器接口420可以用于连接外部存储卡,例如microsd卡,实现扩展手机400的存储能力。外部存储卡通过外部存储器接口420与处理器410通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。内部存储器421可以用于存储一个或多个计算机程序,该一个或多个计算机程序包括指令。处理器410可以通过运行存储在内部存储器421的上述指令,从而使得手机400执行本申请一些实施例中所提供的灭屏显示的方法,以及各种应用以及数据处理等。内部存储器421可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统;该存储程序区还可以存储一个或多个应用(比如图库、联系人等)等。存储数据区可存储手机400使用过程中所创建的数据(比如照片,联系人等)等。此外,内部存储器421可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储部件,闪存部件,通用闪存存储器(universalflashstorage,ufs)等。在一些实施例中,处理器410可以通过运行存储在内部存储器421的指令,和/或存储在设置于处理器410中的存储器的指令,来使得手机400执行本申请实施例中所提供的灭屏显示的方法,以及其他应用及数据处理。手机400可以通过音频模块470,扬声器470a,受话器470b,麦克风470c,耳机接口470d,以及应用处理器等实现音频功能。例如音乐播放,录音等。传感器模块480可以包括压力传感器480a,陀螺仪传感器480b,气压传感器480c,磁传感器480d,加速度传感器480e,距离传感器480f,接近光传感器480g,指纹传感器480h,温度传感器480j,触摸传感器480k,环境光传感器480l,骨传导传感器480m等。其中,压力传感器480a用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器480a可以设置于显示屏494。压力传感器480a的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器480a,电极之间的电容改变。手机400根据电容的变化确定压力的强度。当有触摸操作作用于显示屏494,手机400根据压力传感器480a检测所述触摸操作强度。手机400也可以根据压力传感器480a的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。陀螺仪传感器480b可以用于确定手机400的运动姿态。在一些实施例中,可以通过陀螺仪传感器480b确定手机400围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器480b可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器480b检测手机400抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消手机400的抖动,实现防抖。陀螺仪传感器480b还可以用于导航,体感游戏场景。加速度传感器480e可检测手机400在各个方向上(一般为三轴)加速度的大小。当手机400静止时可检测出重力的大小及方向。还可以用于识别手机姿态,应用于横竖屏切换,计步器等应用。环境光传感器480l用于感知环境光亮度。手机400可以根据感知的环境光亮度自适应调节显示屏494亮度。环境光传感器480l也可用于拍照时自动调节白平衡。环境光传感器480l还可以与接近光传感器480g配合,检测手机400是否在口袋里,以防误触。指纹传感器480h用于采集指纹。手机400可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。温度传感器480j用于检测温度。在一些实施例中,手机400利用温度传感器480j检测的温度,执行温度处理策略。例如,当温度传感器480j上报的温度超过阈值,手机400执行降低位于温度传感器480j附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,手机400对电池442加热,以避免低温导致手机400异常关机。在其他一些实施例中,当温度低于又一阈值时,手机400对电池442的输出电压执行升压,以避免低温导致的异常关机。触摸传感器480k,也称“触控面板”。触摸传感器480k可以设置于显示屏494,由触摸传感器480k与显示屏494组成触摸屏,也称“触控屏”。触摸传感器480k用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏494提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器480k也可以设置于手机400的表面,与显示屏494所处的位置不同。按键490包括开机键,音量键等。按键490可以是机械按键。也可以是触摸式按键。手机400可以接收按键输入,产生与手机400的用户设置以及功能控制有关的键信号输入。需要说明的是,图6中的处理单元320所实现的相关功能可以由图7中的处理器410来实现,图6中的收发单元310所实现的相关功能可以由图7中的处理器410控制天线450或天线460来实现,或图6中的收发单元310所实现的相关功能可以由图7中处理器410通过内部接口控制手机400的其他部件来实现。图8示出了本申请实施例提供的人像处理系统500,该系统500包括手机510、vr装置520和接收端530,手机510与vr装置520之间存在通信接口,手机510与接收端530之间存在通信接口。其中,手机510包括第一摄像装置511、第一图像处理模块512、第二图像处理模块513、人像处理模块514、存储模块515、图像合成模块516、视频编码模块517,vr装置520包括显示屏521、第二摄像装置522、惯性测量装置523。可选地,惯性测量装置523可以集成在vr装置520中,或可以为独立的装置,本申请实施例对此不作限定。可选地,第一摄像装置511可以为手机510的内置摄像装置,或可以为独立的摄像装置,本申请实施例对此不作限定。显示屏521用于播放通过接口从手机510获取的vr资源。第一摄像装置511用于拍摄用户的第三图像,并发送至第一图像处理模块512,其中,所述第三图像包括用户和用户所处的场景,且所述用户的面部的部分区域被vr装置520遮挡,所述部分区域包括所述用户的双眼所在的区域。第一图像处理模块512用于接收第一摄像装置511发送的所述第三图像;对所述第三图像进行增强效果等基础图像处理;从处理后的第三图像中截取第一图像,所述第一图像包括所述用户的面部,并将所述第一图像发送至人像处理模块514。第二摄像装置522为vr装置520的内置摄像头,用于拍摄用户的第四图像,并发送至第二图像处理模块513,其中,所述第四图像包括所述用户的两只眼睛。第二图像处理模块513用于接收第二摄像装置522发送的所述第四图像,对所述第四图像进行增强效果等基础图像处理,并将处理后的第四图像发送至人像处理模块514。惯性测量装置523用于获取用户的头部特征参数,所述头部特征参数包括所述用户的头部的三轴姿态和加速度,并发送至人像处理模块514。人像处理模块514用于从接收到的所述第四图像中提取所述用户的眼部特征参数;将所述第一图像、所述眼部特征参数和所述头部特征参数输入存储模块515中存储的人像处理模型,得到第二图像;将所述第二图像发送至图像合成模块516,所述第二图像中包括所述用户完整的面部。图像合成模块516用于对所述第二图像进行合成或拼接,得到目标图像,并将所述目标发送至视频编码模块517。视频编码模块517用于对所述目标图像进行编码,得到视频流,并将该视频流发送至接收端530。可选地,图8中的人像处理模块514可以为图7中所述的npu、dsp、gpu等运算单元,本申请实施例对此不作限定。需要说明的是,图8中的第一摄像装置511可以为图7中的所述的摄像头494;第一图像处理模块512和第二图像处理模块513可以属于图7中所述的isp,或第一图像处理模块512和第二图像处理模块可以为不同的isp;人像处理模块514可以为图7中所述的npu、dsp、gpu等运算单元;存储模块515可以为图7中所述的内部存储器421,或处理器410中设置的存储器;图像合成模块516可以为图7中所述的gpu;视频编码模块517可以为图7中所述的视频编码器。可选地,上述手机500中的各模块还可以由图7中能够实现各模块所实现的功能的其它器件实现,本申请实施例对此不作限定。可选地,上面仅以一种可能的实现方式介绍了本申请实施例提供的系统500,本申请实施例对此不作限定,该系统500应该能够实现上述方法实施例200中所述的其它步骤,为避免重复,此处不再赘述。本实施例还提供一种计算机存储介质,该计算机存储介质中存储有计算机指令,当该计算机指令在电子设备上运行时,使得电子设备执行上述相关方法步骤实现上述实施例中的人像处理方法。本实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述实施例中的人像处理方法。另外,本申请的实施例还提供一种装置,这个装置具体可以是芯片,组件或模块,该装置可包括相连的处理器和存储器;其中,存储器用于存储计算机执行指令,当装置运行时,处理器可执行存储器存储的计算机执行指令,以使芯片执行上述各方法实施例中的人像处理方法。其中,本实施例提供的服务器、终端、计算机存储介质、计算机程序产品或芯片均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、rom、ram、磁碟或者光盘等各种可以存储程序代码的介质。以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本
技术领域
:的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1