一种基于深感流媒体的人体动作捕捉方法与流程

文档序号:29636115发布日期:2022-04-13 17:11阅读:93来源:国知局

1.本发明属于视频信息处理技术领域,特别是基于深感流媒体的人体动作捕捉方法。


背景技术:

2.在现有的3d影视制作生产中,动画通常都是由动画师手生成动画关键帧。但是,由于人手操作的限制,一个好的动画师,动画关键帧出的动画,时间与速度上都有限,而且与真人的动作逼真性比,动画师相对非常难动画关键帧到真实人表演的动作。
3.现在出现了动态捕捉技术,将采集的肢体动作能快速的运用在影视生产中。现有的动态捕捉技术采集的动画数据,通常经由motionbuilder软件,将动画数据转换到其它三维软件的角色中。然后动画师再稍做修改以及附加其它的动画。该方法因为模型骨骼上同时包含了捕捉动画的旋转与位移值,但在实际的动态捕捉系统中,3d模型与动作演员的实际肢体动作存在一定的位移偏差,跟随程度不够精准。


技术实现要素:

4.针对上述缺陷,本发明提供的一种基于深感流媒体的人体动作捕捉方法,解决现有技术中导入3d模型的动作数据与实际人体的肢体动作存在的位移偏差、跟随程度不精准的问题。
5.本发明采用的技术方案具体的为:
6.一种基于深感流媒体的人体动作捕捉方法,包括以下步骤:
7.(1)、创建虚拟的人体对象,然后导入到图像处理引擎,生成虚拟人体模型;
8.(2)、被采集人体的人体动作信息数据通过深感流媒体采集设备采集,然后关联和控制所述的虚拟人体模型;
9.(3)、将所述的虚拟人体模型合成至模拟场景,根据所述的模拟场景的环境参数为虚拟人体模型配置人体运动参数,然后通过用户端后台的控制平台进行模拟场景控制。
10.所述的人体动作信息数据包括肢体行为动作、面部表情。
11.所述的步骤(1)包括:根据预设信息,为所述的虚拟的人体对象配置预设个体特征数据,预设个体特征数据包含社会背景信息、生理特征信息或个体特有信息,并且为所述的虚拟人体模型配置外形、质感和属性基本形态。
12.所述的步骤(1)还包括:将所述的虚拟人体模型及其匹配的属性基本形态导入至所述的图像处理引擎中运算基本形态。
13.所述的步骤(2)包括:捕捉所述的被采集人体的肢体行为动作、面部表情,转换为与所述的属性的社会背景信息关联的肢体行为动作数据、面部表情动作数据和属性数据,然后关联至图像处理引擎中的相应的虚拟人体模型,并且配置所述的被采集人体的肢体行为动作、面部表情与所述的虚拟人体模型动作的肢体行为动作、面部表情实时同步。
14.所述的步骤(2)还包括:提取所述的被采集人体的形态模型,然后导入至所述的图
像处理引擎中,以匹配所述的虚拟人体模型的属性基本形态;
15.根据所述的形态模型来实时捕捉和转换被采集人体的肢体行为动作数据,将实时捕捉的肢体行为动作数据生成动作控制请求信息,通过所述的图像处理引擎生成相应的虚拟人体模型的动作姿态;
16.在虚拟人体模型的动作姿态之间运算生成肢体动作。
17.所述的步骤(2)还包括:提取所述的被采集人体的面部形态,然后导入至所述的图像处理引擎中,以匹配所述的虚拟人体模型的面部形态蒙皮;
18.根据所述的面部形态来实时捕捉和转换被采集人体的面部表情动作数据,将实时捕捉的面部表情动作数据生成面部表情控制请求信息,通过所述的图像处理引擎生成相应的虚拟人体模型的面部表情形状;
19.在虚拟人体模型相应面部位置的面部表情形状之间运算生成面部表情动作过渡。
20.本发明可以有效的减少动作位移的偏差,使3d模型的动作更真实,减少后期位移修改,提高3d模型动作的制作的质量和速度。
具体实施方式
21.下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
22.首先建立一个基于深感流媒体的人体动作捕捉系统,包括:
23.创建单元,用于创建虚拟的人体对象,然后导入到图像处理引擎,得到虚拟人体模型;
24.关联单元,用于被采集人体的人体动作信息数据通过视频或者穿戴设备采集,然后关联和控制所述的虚拟人体模型;
25.模拟单元,将所述的虚拟人体模型合成至模拟场景,根据所述的模拟场景的环境参数为虚拟人体模型配置人体运动参数,然后通过用户端后台的控制平台进行模拟场景控制。
26.基于上述系统,本发明的捕捉方法,包括以下步骤:
27.(1)、创建虚拟的人体对象,然后导入到图像处理引擎,生成虚拟人体模型;
28.所述的步骤(1)包括:根据预设信息,为所述的虚拟的人体对象配置预设个体特征数据,预设个体特征数据包含社会背景信息、生理特征信息或个体特有信息,并且为所述的虚拟人体模型配置外形、质感和属性基本形态。
29.所述的步骤(1)还包括:将所述的虚拟人体模型及其匹配的属性基本形态导入至所述的图像处理引擎中运算基本形态。
30.(2)、被采集人体的人体动作信息数据通过深感流媒体采集设备采集,然后关联和控制所述的虚拟人体模型;
31.所述的人体动作信息数据包括肢体行为动作、面部表情。
32.所述的步骤(2)包括:捕捉所述的被采集人体的肢体行为动作、面部表情,转换为
与所述的属性的社会背景信息关联的肢体行为动作数据、面部表情动作数据和属性数据,然后关联至图像处理引擎中的相应的虚拟人体模型,并且配置所述的被采集人体的肢体行为动作、面部表情与所述的虚拟人体模型动作的肢体行为动作、面部表情实时同步。
33.所述的步骤(2)还包括:提取所述的被采集人体的形态模型,然后导入至所述的图像处理引擎中,以匹配所述的虚拟人体模型的属性基本形态;
34.根据所述的形态模型来实时捕捉和转换被采集人体的肢体行为动作数据,将实时捕捉的肢体行为动作数据生成动作控制请求信息,通过所述的图像处理引擎生成相应的虚拟人体模型的动作姿态;
35.在虚拟人体模型的动作姿态之间运算生成肢体动作。
36.所述的步骤(2)还包括:提取所述的被采集人体的面部形态,然后导入至所述的图像处理引擎中,以匹配所述的虚拟人体模型的面部形态蒙皮;
37.根据所述的面部形态来实时捕捉和转换被采集人体的面部表情动作数据,将实时捕捉的面部表情动作数据生成面部表情控制请求信息,通过所述的图像处理引擎生成相应的虚拟人体模型的面部表情形状;
38.在虚拟人体模型相应面部位置的面部表情形状之间运算生成面部表情动作过渡。
39.(3)、将所述的虚拟人体模型合成至模拟场景,根据所述的模拟场景的环境参数为虚拟人体模型配置人体运动参数,然后通过用户端后台的控制平台进行模拟场景控制。
40.尽管已经根据如上所述的优选实施例描述了本发明,但是应该理解,这些实施例仅是说明性的,并且权利要求不限于那些实施例。鉴于本公开内容,本领域技术人员将能够进行修改和替换,这些修改和替换被认为落入所附权利要求的范围内。本说明书中公开或说明的每个特征可以结合在本发明中,无论是单独的还是与本文公开或说明的任何其他特征的任何适当组合。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1