增强现实AR表情生成方法、装置及存储介质与流程

文档序号:18829650发布日期:2019-10-09 02:55阅读:346来源:国知局
增强现实AR表情生成方法、装置及存储介质与流程

本发明实施例涉及信息处理技术领域,尤其涉及一种增强现实ar表情生成方法、装置及存储介质。



背景技术:

随着移动互联网的发展,越来越多的用户使用互联网即时通信软件进行收发信息。即时通信不再是一个单纯的聊天工具,它集成了图像拍摄、电子邮件、音乐、视频、游戏和搜索等多种功能。聊天工具中的表情是用户表达情感的重要途径,为了增加聊天的趣味性,ar(augmentedreality,增强现实)表情的制作受到越来越多用户的青睐,用户可以制作个性化的ar表情来传递心情或话语。

ar表情通常是在人物图像的基础上,通过图像识别人物面部表情或者手势动作,触发ar表情素材的变化,用户交互方式单一,用户在选择ar表情素材时,需要在素材选择界面上查询ar表情素材,再点选合适的ar表情素材,上述操作步骤较为繁琐,且用户无法个性化处理ar表情素材。



技术实现要素:

本发明提供一种增强现实ar表情生成方法、装置及存储介质,简化了用户制作ar表情的操作步骤。

本发明的第一方面提供一种ar表情生成方法,包括:

获取待处理的第一ar表情;

获取终端设备上传感器采集到的传感器信息;

根据所述传感器信息调整所述第一ar表情,得到第二ar表情,并在所述终端设备的显示界面上展示所述第二ar表情。

可选的,所述传感器包括陀螺仪、温度传感器、光线传感器、声音传感器的至少一项。

在一种实现方式中,所述传感器为陀螺仪,所述传感器信息包括所述终端设备的移动参数;所述根据所述传感器信息调整所述第一ar表情,得到第二ar表情,包括:

根据所述移动参数确定所述第一ar表情的移动程度和移动方向;

根据所述移动程度和所述移动方向调整所述第一ar表情,得到所述第二ar表情。

在一种实现方式中,所述传感器为温度传感器,所述传感器信息包括所述终端设备的温度参数;所述根据所述传感器信息调整所述第一ar表情,得到第二ar表情,包括:

根据所述温度参数,确定所述温度参数对应的ar表情的第一特效贴图;

将所述第一特效贴图叠加在所述第一ar表情中,得到第二ar表情。

在一种实现方式中,所述传感器为光线传感器,所述传感器信息包括所述终端设备所处环境的光照参数;

所述根据所述传感器信息调整所述第一ar表情,得到第二ar表情,包括:

根据所述光照参数确定拍摄模式,所述拍摄模式包括白天模式和夜晚模式;

根据所述拍摄模式确定与所述拍摄模式对应的ar表情的第二特效贴图;

将所述第二特效贴图叠加在所述第一ar表情中,得到第二ar表情。

在一种实现方式中,所述传感器为声音传感器,所述传感器信息包括第一声音参数,所述第一声音参数用于指示用户需求的第三特效贴图;

所述根据所述传感器信息调整所述第一ar表情,得到第二ar表情,包括:

识别所述第一声音参数获取用户需求的第三特效贴图;

将所述第三特效贴图叠加在所述第一ar表情中,得到第二ar表情。

在一种实现方式中,所述将所述第三特效贴图叠加在所述第一ar表情中,得到第二ar表情,包括:

获取第二声音参数和第一ar表情中用户的口型信息;

根据所述第二声音参数和所述口型信息,调整所述第三特效贴图;

将调整后的第三特效贴图叠加在所述第一ar表情中,得到第二ar表情。

在一种实现方式中,所述传感器为声音传感器,所述传感器信息包括第三声音参数,所述第三声音参数用于指示用户需求的第二ar表情对应的第二虚拟角色;所述第二虚拟角色与所述第一ar表情对应的第一虚拟角色为不同的虚拟角色;

所述根据所述传感器信息调整所述第一ar表情,得到第二ar表情,包括:

识别所述第三声音参数获取所述第二虚拟角色的面部图像;

将所述第一虚拟角色切换为所述第二虚拟角色,得到包含所述第二虚拟角色的面部图像的所述第二ar表情。

可选的,所述第一ar表情包括被拍摄用户的面部图像,或者,虚拟角色的面部图像;所述虚拟角色的面部图像与所述被拍摄用户的面部图像具有相同的表情特征。

本发明的第二方面提供一种增强现实ar表情生成装置,包括:

获取模块,用于获取待处理的第一ar表情;

所述获取模块,还用于获取终端设备上传感器采集到的传感器信息;

处理模块,用于根据所述传感器信息调整所述第一ar表情,得到第二ar表情;

所述展示模块,用于在所述终端设备的显示界面上展示所述第二ar表情。

本发明的第三方面提供一种增强现实ar表情生成装置,包括:

存储器;

处理器;以及

计算机程序;

其中,所述计算机程序存储在所述存储器中,并被配置为由所述处理器执行以实现如本发明第一方面任一项所述的增强现实ar表情生成方法。

本发明的第四方面提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行以实现如本发明第一方面任一项所述的增强现实ar表情生成方法。

本发明实施例提供一种增强现实ar表情生成方法、装置及存储介质。该方法包括:获取待处理的第一ar表情,获取终端设备上传感器采集到的传感器信息。传感器包括陀螺仪、温度传感器、光线传感器、声音传感器的至少一项,对应的,传感器信息包括移动参数、温度参数、光照参数、声音参数的至少一项。根据上述传感器信息调整第一ar表情,得到第二ar表情。在终端设备的显示界面上展示第二ar表情。其中,第二ar表情是叠加了新的特效贴图的第一ar表情,或者,是切换了虚拟角色的ar表情。上述方法简化了用户制作ar表情的操作步骤。

附图说明

图1为本发明一实施例提供的ar表情生成方法的流程示意图;

图2为本发明另一实施例提供的ar表情生成方法的流程示意图;

图3为本发明又一实施例提供的ar表情生成方法的流程示意图;

图4为本发明再一实施例提供的ar表情生成方法的流程示意图;

图5为本发明再一实施例提供的ar表情生成方法的流程示意图;

图6为本发明一实施例提供的第一ar表情叠加第三特效贴图的流程示意图;

图7为本发明再一实施例提供的ar表情生成方法的流程示意图;

图8为本发明一实施例提供的ar表情生成装置的功能结构示意图;

图9为本发明一实施例提供的ar表情生成装置的硬件结构示意图。

具体实施方式

这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。

本发明的说明书和权利要求书中的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。

本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。

本发明的说明书中通篇提到的“一实施例”或“另一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一些实施例中”或“在本实施例中”未必一定指相同的实施例。需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。

传统的表情是指预先绘制好的表情,该表情可以是静态表情,也可以是动态表情。用户可以根据个人需求从网络服务器上下载不同风格的表情包,在输入文字的过程中加入适当的表情,使得输入过程更加丰富有趣。主要应用于聊天工具(例如即时通信软件)、网页评论、视频弹幕等场景。

ar表情不同于上述传统的表情,该表情可以包括被拍摄用户的面部图像,或者,包括虚拟角色的面部图像。若ar表情包括被拍摄用户的面部图像,用户可以通过手势或者面部表情的变化获得具有特效贴图的表情图像,用户也可以通过界面选择操作获取具有特效贴图的表情图像。若ar表情包括虚拟角色的面部图像,用户可以通过界面选择操作获取虚拟角色的面部图像,再结合人脸识别技术获取被拍摄用户的面部表情特征,用于控制虚拟角色的面部表情,从而生成表达用户情绪的虚拟角色的ar表情。上述ar表情可以是静态图像,也可以是动态图像,动态图像可以是不同格式的,例如gif,live2d或者live3d等。

无论上述哪一种ar表情,其交互过程都较为单一,都是基于用户面部表情、手势或者界面选择操作进行交互。用户无法快速获取ar表情素材,需要在用户选择界面搜索待添加的ar表情素材(包括ar表情的虚拟角色或者贴图),在搜索列表点选合适的ar表情素材,从而完成选择操作,上述操作过程较为繁琐。另外,用户无法个性化处理ar表情素材,即无法改变素材库中已有的ar表情素材,ar表情素材较为固定,无法满足用户对ar表情的多样化需求。

为了解决上述问题,本发明实施例提供一种ar表情生成方法,该方法包括获取待处理的第一ar表情,该第一ar表情可以包括被拍摄用户的面部图像,或者,包括虚拟角色的面部图像。通过获取终端设备上各传感器采集到的传感器信息,根据采集到的传感器信息调整当前的第一ar表情,得到第二ar表情。其中,第二ar表情可以是叠加了特效贴图的第一ar表情,也可以是与第一ar表情对应的第一虚拟角色不同的第二虚拟角色的ar表情。将得到的第二ar表情在终端设备的显示界面上进行展示。

在本实施例中,用户无需在终端设备的显示界面上手动选择要添加的贴图或者要使用的虚拟角色的图像,终端设备通过采集传感器的传感器信息,根据传感器信息在当前ar表情上叠加相应的特效贴图,或者,切换其他ar表情,大大简化了用户制作ar表情的操作步骤。还可以根据传感器信息对叠加的特效贴图进行个性化调整,增加用户使用ar表情的趣味性。

下面以具体的实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。

图1为本发明一实施例提供的ar表情生成方法的流程示意图,该方法可以由任意执行该方法的装置来执行,该装置可以通过软件和/或硬件实现。

如图1所示,本实施例提供的ar表情生成方法包括如下步骤:

s101、获取待处理的第一ar表情。

在本实施例中,待处理的第一ar表情可以包括被拍摄用户的面部图像,或者,虚拟角色的面部图像,对此本实施例不作具体限定。若待处理的第一ar表情包括虚拟角色的面部图像,则在终端设备的显示界面上,仅显示虚拟角色的面部图像,该虚拟角色的面部图像与摄像头拍摄的用户的面部图像具有相同的表情特征,也就是说,终端设备将被拍摄用户的面部表情特征迁移至虚拟角色中。

可选的,待处理的第一ar表情可以包括被拍摄用户的完整图像,即摄像头采集的除了面部之外的身体其他部位的图像,例如被拍摄用户的半身图像。对应的,待处理的第一ar表情可以包括被拍摄用户的部分图像以及虚拟角色的部分图像,即可以将被拍摄用户的头部图像替换为虚拟角色的头部图像,被拍摄用户的其他部位的图像保留,将被拍摄用户的面部表情迁移至虚拟角色中。待处理的第一ar表情可以包括虚拟角色的完整图像,即可以将被拍摄用户的完整图像全部替换为虚拟角色的完整图像,将被拍摄用户的面部表情以及身体各部位的动作同时迁移至虚拟角色中。

本实施例中的虚拟角色可以是虚拟动物角色,也可以是虚拟人物角色,例如虚拟动漫人物等。

s102、获取终端设备上传感器采集到的传感器信息。

在本实施例中,终端设备上的传感器包括以下传感器的一种或多种:陀螺仪、温度传感器、光线传感器、声音传感器。其中,

陀螺仪是用高速回转体的动量矩敏感壳体相对惯性空间绕正交于自转轴的一个或二个轴的角运动检测装置。本实施例中的陀螺仪用于测量终端设备的移动参数,其中移动参数包括平移矢量和/或旋转矢量。

温度传感器是能感受温度并转换成可用输出信号的传感器。本实施例中的温度传感器用于测量终端设备周围环境的温度参数。

光线传感器也叫感光器,是能根据终端设备所处环境自动调节终端设备屏幕亮度的传感器。本实施例中的光线传感器用于测量终端设备所处环境的光照参数。

声音传感器的作用相当于一个话筒,用于接收声波。该传感器内置一个对声音敏感的电容式驻极体话筒,声波使话筒内的驻极体薄膜振动,导致电容的变化,从而产生与之对应变化的微小电压。本实施例中的声音传感器用于检测声音参数,在不同应用场景中声音参数指示的内容不同,具体可参见下述实施例,此处不具体展开。

当然,本实施例的传感器并不限于上述传感器,还可以是具有其他检测功能的传感器,可以根据实际需要设置,对此本实施例不作具体限定。

s103、根据传感器信息调整第一ar表情,得到第二ar表情。

基于上述各传感器,可以对应获取不同传感器的传感器信息。若传感器为陀螺仪,传感器信息包括终端设备的移动参数。若传感器为温度传感器,传感器信息包括终端设备所处环境的温度参数。若传感器为光线传感器,传感器信息包括终端设备所处环境的光照参数。若传感器为声音传感器,传感器信息包括声音参数。

第二ar表情是叠加了新的特效贴图的第一ar表情,或者,是切换了虚拟角色的ar表情。具体的,

在本实施例中,终端设备根据上述传感器信息调整第一ar表情。在一种可能的实现方式中,终端设备根据传感器信息在第一ar表情中叠加特效贴图,其中特效贴图是基于传感器信息确定的,或者,基于传感器信息展示可选的特效特图,用户从可选的特效贴图中确定待叠加的特效特图。在一种可能的实现方式中,终端设备根据传感器信息将第一ar表情切换为第二ar表情,其中第一ar表情和第二ar表情的虚拟角色为不同的虚拟角色。在一种可能的实现方式中,终端设备根据传感器信息对第一ar表情的特效贴图进行调整,例如调整特效贴图的位置或者角度等。上述各实现方式的具体方案可参见下述实施例。

s104、在终端设备的显示界面上展示第二ar表情。

本发明本实施例提供的ar表情生成方法,终端设备通过获取传感器的传感器信息,对第一ar表情进行调整,无需用户做出过多的界面操作,简化了用户制作ar表情的操作步骤。另外,终端设备还可以根据传感器信息对ar表情进行个性化调整,增加用户使用ar表情的趣味性。

在上述实施例的基础上,本实施例提供的ar表情生成方法中,传感器包括陀螺仪,传感器信息包括移动参数。本实施例公开了如何根据终端设备的移动参数调整第一ar表情的技术方案,该方案实现对ar表情的个性化调整,增加用户使用ar表情的趣味性。下面结合附图2对本实施例提供的ar表情生成方法进行详细说明。

图2为本发明另一实施例提供的ar表情生成方法的流程示意图。如图2所示,本实施例提供的ar表情生成方法具体包括以下步骤:

s201、获取待处理的第一ar表情;

本实施例的s201与上述实施例的s101相同,具体可参见上述实施例,此处不再赘述。

s202、获取终端设备上传感器采集到的传感器信息,传感器信息包括移动参数。

在本实施例中,传感器包括陀螺仪。陀螺仪用于测量终端设备的移动参数,其中移动参数包括平移矢量和/或旋转矢量。

s203、根据移动参数确定第一ar表情的移动程度和移动方向。

s204、根据移动程度和移动方向调整第一ar表情,得到第二ar表情。

在本实施例中,移动参数可以包括平移矢量。平移矢量包括平移距离和平移方向。其中,用户对终端设备的平移方向可以是向左、向右、向上、向下。

在一种实现方式中,根据移动参数确定第一ar表情的移动距离和移动方向,可以包括:根据终端设备的平移距离和平移方向,确定第一ar表情中被拍摄用户的面部图像或者虚拟角色的面部图像的形变程度和形变方向。对应的,根据移动程度和移动方向调整第一ar表情,得到第二ar表情,包括:根据形变程度和形变方向调整第一ar表情中被拍摄用户的面部图像或者虚拟角色的面部图像,得到第二ar表情。第一ar表情中被拍摄用户的面部图像或者虚拟角色的面部图像为发生形变的图像。

示例性的,用户将终端设备向左平移一定距离,对应的,将第一ar表情中被拍摄用户的面部图像或者虚拟角色的面部图像向左变形,变形程度与平移距离成正比。用户将终端设备向上平移一定距离,对应的,将第一ar表情中被拍摄用户的面部图像或者虚拟角色的面部图像向上变形,变形程度与平移距离成正比。通过上述方式,提升用户制作ar表情的趣味性。

在另一种实现方式中,根据移动参数确定第一ar表情的移动距离和移动方向,可以包括:根据终端设备的平移距离和平移方向,确定第一ar表情中特效贴图的平移距离和平移方向。对应的,根据移动程度和移动方向调整第一ar表情,得到第二ar表情,包括:根据平移距离和平移方向调整第一ar表情中已添加的特效贴图的位置,得到第二ar表情。

示例性的,用户将终端设备向左平移一定距离,对应的,将第一ar表情中已添加的特效贴图向左平移一定距离。用户将终端设备向上平移一定距离,对应的,将第一ar表情中已添加的特效贴图向上平移一定距离。需要说明的是,终端在空间的移动距离与特效贴图在显示界面的移动距离的比例是预先设定的,根据该比例调整特效贴图在显示界面的移动距离。上述交互方式,用户无需在终端设备的显示界面对贴图进行位置调整,简化了用户制作ar表情的步骤。

在本实施例中,移动参数可以包括旋转矢量。旋转矢量包括旋转角度和旋转方向。其中,对终端设备的旋转方向可以是顺时针方向,也可以是逆时针方向。

根据移动参数确定第一ar表情的移动距离和移动方向,可以包括:根据终端设备的旋转角度和旋转方向,确定第一ar表情中已添加的特效贴图的旋转角度和旋转方向。对应的,根据移动程度和移动方向调整第一ar表情,得到第二ar表情,包括:根据旋转角度和旋转方向调整第一ar表情中已添加的特效贴图的位置,得到第二ar表情。

示例性的,用户将终端设备顺时针旋转15°,对应的,将第一ar表情中已添加的特效贴图的顺时针旋转15°。上述交互方式,用户无需在终端设备的显示界面对贴图进行旋转,简化了用户制作ar表情的步骤。

s205、在终端设备的显示界面上展示第二ar表情。

本发明本实施例提供的ar表情生成方法,终端设备通过获取陀螺仪采集的移动参数,该移动参数包括平移矢量和/或旋转矢量,根据移动参数确定第一ar表情的移动程度和移动方向,根据移动程度和移动方向调整第一ar表情中被拍摄用户的面部图像、虚拟角色的面部图像或者已添加的特效贴图,从而得到第二ar表情。在终端设备的显示界面展示第二ar表情。第二ar表情为用户自定义之后的ar表情。上述实现过程增加用户使用ar表情的趣味性,满足不同用户对ar表情的个性化需求。

在上述各实施例的基础上,本实施例提供的ar表情生成方法中,传感器包括温度传感器,传感器信息包括终端设备所处环境的温度参数。本实施例公开了如何根据终端设备所处环境的温度参数调整第一ar表情的技术方案,该方案简化了用户制作ar表情的操作步骤。下面结合附图3对本实施例提供的ar表情生成方法进行详细说明。

图3为本发明又一实施例提供的ar表情生成方法的流程示意图。如图3所示,本实施例提供的ar表情生成方法包括如下步骤:

s301、获取待处理的第一ar表情。

本实施例的s301与上述实施例的s101相同,具体可参见上述实施例,此处不再赘述。

s302、获取终端设备上传感器采集到的传感器信息,传感器信息包括温度参数。

在本实施例中,传感器包括温度传感器。温度传感器用于测量终端设备所处环境的温度参数。

s303、根据温度参数,确定温度参数对应的ar表情的第一特效贴图。

s304、将第一特效贴图叠加在第一ar表情中,得到第二ar表情。

在本实施例中,ar表情素材的资源库中预存有不同温度参数对应的ar表情的第一特效贴图。其中,第一特效贴图可以是ar表情的背景贴图或者前置贴图,该贴图可以是静态贴图,也可以是动态贴图。

示例性的,终端设备获取温度传感器采集的终端设备所处环境的温度参数为零下5度,则终端设备根据该温度参数从资源库中获取该温度参数对应的ar表情的第一特效贴图,该第一特效贴图可以是包含雪人或者雪花的背景贴图或前置贴图。用户可以根据自身需求预先从服务器上下载与温度参数相关的背景贴图或前置贴图,在用户开启自动添加贴图功能时,自动在ar表情中加入用户预存的与温度参数相关的背景贴图或前置贴图,从而简化用户查询或点选与环境温度相关的第一特效贴图。

s305、在终端设备的显示界面上展示第二ar表情。

本发明实施例提供的ar表情生成方法,终端设备通过获取温度传感器采集的温度参数,该温度参数用于指示终端设备所处环境的温度值。根据温度参数从资源库中获取与该温度参数对应的ar表情的第一特效贴图,将第一特效贴图叠加在第一ar表情中,得到第二ar表情。在终端设备的显示界面上展示第二ar表情。本实施例的第二ar表情中包含与环境温度相关的特效贴图。上述实现过程简化了用户制作ar表情的操作步骤。

在上述各实施例的基础上,本实施例提供的ar表情生成方法中,传感器包括光线传感器,传感器信息包括终端设备所处环境的光照参数。本实施例公开了如何根据终端设备所处环境的光照参数调整第一ar表情的技术方案,该方案简化了用户制作ar表情的操作步骤。下面结合附图4对本实施例提供的ar表情生成方法进行详细说明。

图4为本发明再一实施例提供的ar表情生成方法的流程示意图。如图4所示,本实施例提供的ar表情生成方法包括如下步骤:

s401、获取待处理的第一ar表情。

本实施例的s401与上述实施例的s101相同,具体可参见上述实施例,此处不再赘述。

s402、获取终端设备上传感器采集到的传感器信息,传感器信息包括光照参数。

在本实施例中,传感器包括光线传感器。光线传感器用于测量终端设备所处环境的光照参数。

s403、根据光照参数确定拍摄模式,拍摄模式包括白天模式和夜晚模式。

s404、根据拍摄模式确定与拍摄模式对应的ar表情的第二特效贴图。

s405、将第二特效贴图叠加在第一ar表情中,得到第二ar表情。

具体的,终端设备获取光线传感器采集的终端设备所处环境的光照参数,在光照参数小于或者等于预设光照参数时,确定终端设备的拍摄模式为夜晚模式。在光照参数大于预设光照参数时,确定终端设备的拍摄模式为白天模式。

在实施例中,ar表情素材的资源库中预存有不同拍摄模式对应的ar表情的第二特效贴图。其中第二特效贴图可以是ar表情的背景贴图或者前置贴图,该贴图可以是静态贴图,也可以是动态贴图。

用户可以根据自身需求预先从服务器上下载与光照参数相关的背景贴图或者前置贴图,在用户开启自动添加贴图功能时,自动在ar表情中加入用户预存的与拍摄模式相关的背景贴图或前置贴图,从而简化用户查询或点选与光照参数相关的第二特效贴图。

s406、在终端设备的显示界面上展示第二ar表情。

本发明实施例提供的ar表情生成方法,终端设备获取光线传感器的光照参数,光照参数用于指示终端设备所处环境的光照度。根据光照参数确定拍摄模式,拍照模式包括白天模式和夜晚模式。根据拍摄模式确定与拍摄模式对应的ar表情的第二特效贴图,将第二特效贴图叠加在第一ar表情中,得到第二ar表情。在终端设备的显示界面上展示第二ar表情。本实施例的第二ar表情中包含与环境光照相关的特效贴图。上述实现过程简化了用户制作ar表情的操作步骤。

在上述各实施例的基础上,本实施例提供的ar表情生成方法中,传感器包括声音传感器,传感器信息包括声音参数,在不同应用场景中声音参数指示的内容不同。下述几个本实施例公开了如何根据声音参数调整第一ar表情的技术方案,该方案不仅简化了用户制作ar表情的操作步骤,还增加用户使用ar表情的趣味性。下面分别结合附图5、6、7对ar表情生成方法进行详细说明。

图5为本发明再一实施例提供的ar表情生成方法的流程示意图。如图5所示,本实施例提供的ar表情生成方法包括如下步骤:

s501、获取待处理的第一ar表情。

本实施例的s501与上述实施例的s101相同,具体可参见上述实施例,此处不再赘述。

s502、获取终端设备上传感器采集到的传感器信息,传感器信息包括第一声音参数。

在本实例中,传感器包括声音传感器。声音传感器用于检测第一声音参数。第一声音参数用于指示用户需求的第三特效贴图。

s503、识别第一声音参数获取用户需求的第三特效贴图。

s504、将第三特效贴图叠加在第一ar表情中,得到第二ar表情。

在本实施例中,终端设备采用语音识别技术识别声音传感器采集到的第一声音参数,确定用户需求的第三特效贴图,从资源库或者服务器上获取该第三特效贴图。其中,第三特效贴图可以是ar表情的背景贴图或者前置贴图,该贴图可以是静态贴图,也可以是动态贴图。

示例性的,用户通过声音传感器语音输入需求特效贴图的名称“太阳”,终端设备首先在本地的资源库中查询用户预存的“太阳”的特效贴图。若资源库中不存在“太阳”的特效贴图,则通过服务器在线下载“太阳”的特效贴图。在用户开启语音识别功能时,可以自动在ar表情中加入用户需求的特效贴图,从而简化ar表情制作过程中用户查询或点选的操作步骤。

s505、在终端设备的显示界面上展示第二ar表情。

本实施例提供的ar表情生成方法,终端设备通过获取声音传感器采集第一声音参数,该第一声音参数用于指示用户需求的第三特效贴图。识别第一声音参数确定用户需求的第三特效贴图,将第三特效贴图的叠加在第一ar表情中,得到第二ar表情。在终端设备上显示包括第三特效贴图的第二ar表情。上述实现过程简化了ar表情制作的操作步骤。

可选的,图6所示实施例示出了如何根据声音传感器采集的声音参数调整ar表情已添加的特效贴图的技术方案。该技术方案涉及一个具体的实例,通过声音传感器以及口型识别,判断用户是否进行吹气操作,从而触发对ar表情中特效贴图的移动或者变形。

图6为本发明一实施例提供的第一ar表情叠加第三特效贴图的流程示意图,在图5所示实施例的基础上,如图6所示,上述步骤s503,可以包括如下步骤:

s5031、获取第二声音参数和第一ar表情中用户的口型信息;

s5032、根据第二声音参数和口型信息,调整第三特效贴图;

s5033、将调整后的第三特效贴图叠加在第一ar表情中,得到第二ar表情。

在本实施例中,第一ar表情中叠加的第三特效贴图可以是气泡、纸飞机、气球等可移动的贴图素材。第二声音参数用于指示用户吹气动作对应的吹气力度。

具体的,终端设备采用图像识别技术获取用户的口型信息,再根据声音传感器采集的第二声音参数和用户的口型信息,判断用户是否进行吹气操作。若确定用户正在进行吹气操作,则根据第二声音参数和用户的口型信息确定用户的吹气力度,根据吹气力度触发对第一ar表情中已添加的第三特效贴图的移动或变形。示例性的,第三特效贴图为气泡时,用户吹起力度越大,气泡的移动速度越快,且气泡具有一定的形变。

本实施例提供的ar表情生成方法,终端设备采用图像识别技术获取被拍摄用户的口型信息,同时获取声音传感器采集的第二声音参数,该第二声音参数用于指示用户吹气动作对应的吹气力度。根据第二声音参数和用户的口型信息,对第一ar表情中已添加的第三特效贴图进行移动或变形,得到第二ar表情。本实施例的第二ar表情为一动态表情。上述实现过程增加用户使用ar表情的趣味性,实现对已添加的特效贴图的动态调整。

图7为本发明再一实施例提供的ar表情生成方法的流程示意图。如图7所示,本实施例提供的ar表情生成方法包括如下步骤:

s701、获取待处理的第一ar表情。

本实施例的s701与上述实施例的s101相同,具体可参见上述实施例,此处不再赘述。

s702、获取终端设备上传感器采集到的传感器信息,传感器信息包括第三声音参数。

在本实例中,传感器包括声音传感器。声音传感器用于检测第三声音参数。第三声音参数用于指示用户需求的第二ar表情对应的第二虚拟角色。

在第一ar表情包括第一虚拟角色的面部图像时,第二虚拟角色与第一ar表情对应的第一虚拟角色为不同的虚拟角色。

s703、获取第三声音参数指示的第二虚拟角色的图像。

s704、将第一虚拟角色切换为第二虚拟角色,得到包含第二虚拟角色的面部图像的第二ar表情。

具体的,终端设备采用语音识别技术识别声音传感器采集到的第二声音参数,从资源库或服务器上获取第三声音参数指示的第二虚拟角色的面部图像,并将被拍摄用户的面部表情特征迁移至第二虚拟角色中。

示例性的,假设第一ar表情包括动物角色“狗”的面部图像,即第一虚拟角色为“狗”。用户通过声音传感器语音输入需求的第二虚拟角色为“猫”,终端设备获取第二虚拟角色的面部图像,将第一虚拟角色的面部图像替换为第二虚拟角色的面部图像,同时,将当前被拍摄用户的面部表情特征迁移至第二虚拟角色中。上述实现过程实现对ar表情中虚拟角色的自动切换,简化了ar表情制作的操作步骤。

s705、在终端设备的显示界面上展示第二ar表情。

可选的,本实施例的第一ar表情可以包括被拍摄用户的面部图像,上述实现过程为对被拍摄用户进行虚拟角色的替换,即采用语音识别技术自动将被拍摄用户的面部图像替换为虚拟角色的面部图像,同时将被拍摄用户的面部表情特征迁移至该虚拟角色中。该实现方式无需用户在虚拟角色选择界面进行查询或点选,简化了ar表情制作的操作步骤。

本实施例提供ar表情生成方法,终端设备通过声音传感器采集第三声音参数,该第三声音参数用于指示用户需求的第二ar表情对应的第二虚拟角色。通过识别第三声音参数获取第二虚拟角色的面部图像,将第一虚拟角色切换为第二虚拟角色,得到包含第二虚拟角色的面部图像的第二ar表情。在终端设备的显示界面展示该第二ar表情。上述实现过程简化了ar表情制作的操作步骤。

图8为本发明一实施例提供的ar表情生成装置的功能结构示意图,如图8所示,本实施例提供的ar表情生成装置800,包括:

获取模块801,用于获取待处理的第一ar表情;

所述获取模块801,还用于获取终端设备上传感器采集到的传感器信息;

处理模块802,用于根据所述传感器信息调整所述第一ar表情,得到第二ar表情;

展示模块803,用于在所述终端设备的显示界面上展示所述第二ar表情。

可选的,所述传感器包括陀螺仪、温度传感器、光线传感器、声音传感器的至少一项。

可选的,所述传感器为陀螺仪,所述传感器信息包括所述终端设备的移动参数;所述处理模块802,具体用于:

根据所述移动参数确定所述第一ar表情的移动程度和移动方向;

根据所述移动程度和所述移动方向调整所述第一ar表情,得到所述第二ar表情。

可选的,所述传感器为温度传感器,所述传感器信息包括所述终端设备的温度参数;所述处理模块802,具体用于:

根据所述温度参数,确定所述温度参数对应的ar表情的第一特效贴图;

将所述第一特效贴图叠加在所述第一ar表情中,得到第二ar表情。

可选的,所述传感器为光线传感器,所述传感器信息包括所述终端设备所处环境的光照参数;所述处理模块802,具体用于:

根据所述光照参数确定拍摄模式,所述拍摄模式包括白天模式和夜晚模式;

根据所述拍摄模式确定与所述拍摄模式对应的ar表情的第二特效贴图;

将所述第二特效贴图叠加在所述第一ar表情中,得到第二ar表情。

可选的,所述传感器为声音传感器,所述传感器信息包括第一声音参数,所述第一声音参数用于指示用户需求的第三特效贴图;所述处理模块802,具体用于:

识别所述第一声音参数获取用户需求的第三特效贴图;

将所述第三特效贴图叠加在所述第一ar表情中,得到第二ar表情。

可选的,所述获取模块801,还用于获取第二声音参数和第一ar表情中用户的口型信息;

所述处理模块802,还用于:

根据所述第二声音参数和所述口型信息,调整所述第三特效贴图;

将调整后的第三特效贴图叠加在所述第一ar表情中,得到第二ar表情。

可选的,所述传感器为声音传感器,所述传感器信息包括第三声音参数,所述第三声音参数用于指示用户需求的第二ar表情对应的第二虚拟角色;所述第二虚拟角色与所述第一ar表情对应的第一虚拟角色为不同的虚拟角色;所述处理模块802,具体用于:

识别所述第三声音参数获取所述第二虚拟角色的面部图像;

将所述第一虚拟角色切换为所述第二虚拟角色,得到包含所述第二虚拟角色的面部图像的所述第二ar表情。

可选的,所述第一ar表情包括被拍摄用户的面部图像,或者,虚拟角色的面部图像;所述虚拟角色的面部图像与所述被拍摄用户的面部图像具有相同的表情特征。

本实施例提供的ar表情生成装置,可以执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。

图9为本发明一实施例提供的ar表情生成装置的硬件结构示意图,如图9所示,本实施例提供的ar表情生成装置900,包括:

存储器901;

处理器902;以及

计算机程序;

其中,计算机程序存储在存储器901中,并被配置为由处理器902执行以实现如前述任一项方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。

可选的,存储器901既可以是独立的,也可以跟处理器902集成在一起。

当存储器901是独立于处理器902之外的器件时,ar表情生成装置900还包括:

总线903,用于连接存储器901和处理器902。

本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器902执行以实现如上方法实施例中ar表情生成装置900所执行的各个步骤。

应理解,上述处理器可以是中央处理单元(英文:centralprocessingunit,简称:cpu),还可以是其他通用处理器、数字信号处理器(英文:digitalsignalprocessor,简称:dsp)、专用集成电路(英文:applicationspecificintegratedcircuit,简称:asic)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。

存储器可能包含高速ram存储器,也可能还包括非易失性存储nvm,例如至少一个磁盘存储器,还可以为u盘、移动硬盘、只读存储器、磁盘或光盘等。

总线可以是工业标准体系结构(industrystandardarchitecture,isa)总线、外部设备互连(peripheralcomponent,pci)总线或扩展工业标准体系结构(extendedindustrystandardarchitecture,eisa)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本申请附图中的总线并不限定仅有一根总线或一种类型的总线。

上述存储介质可以是由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(sram),电可擦除可编程只读存储器(eeprom),可擦除可编程只读存储器(eprom),可编程只读存储器(prom),只读存储器(rom),磁存储器,快闪存储器,磁盘或光盘。存储介质可以是通用或专用计算机能够存取的任何可用介质。

一种示例性的存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于专用集成电路(applicationspecificintegratedcircuits,简称:asic)中。当然,处理器和存储介质也可以作为分立组件存在于ar表情生成装置中。

最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1