一种面向互补视角多人关系感知的合成数据生成方法

文档序号:30085993发布日期:2022-05-18 05:42阅读:110来源:国知局
一种面向互补视角多人关系感知的合成数据生成方法

1.本发明涉及计算机视觉领域,尤其涉及一种面向互补视角多人关系感知的合成数据生成方法。


背景技术:

2.相比于单视角固定相机视野覆盖范围有限,拍摄角度单一的缺陷,在面向户外密集人员监控的场景中利用多视角(特别是顶视和水平视角构成的互补视角)相机拍摄视频之间的关联和数据进行协同分析,实现大范围全场景动态监控具有重要的研究意义和发展前景。多人关系感知作为多人场景视频分析中的典型任务,主要面向多人场景下不同个体与群组的关系演变过程,自然也得到了学术界的广泛研究。
3.然而现有的基于深度学习的视频分析技术,往往需要大量的训练数据。而针对上述提到的多视角下多人关系感知视频分析任务而言,拍摄与标注真实场景下的多人场景视频数据却十分困难,往往需要消耗大量的人力物力。


技术实现要素:

4.本发明提供了一种面向互补视角多人关系感知的合成数据生成方法,本发明解决了多视角下多人关系感知视频分析任务所需数据集的采集与标注成本巨大的问题,本发明借助3d开发工具如unity引擎,利用3d人物模型和场景建模,通过编写脚本来控制场景内人群的移动和行为动作,模拟生成接近真实场景下的多视角视频数据,并同时生成视频中所有群体演化的信息,还可以生成视频每帧中人物的标注框位置、人物id及所属群体的id等信息,以快速地生成大量且丰富的训练数据,详见下文描述:
5.一种面向互补视角多人关系感知的合成数据生成方法,所述方法包括:
6.设置行人类、群体类和演化类,并根据视频生成的需求进行初始化;
7.加载人物模型和场景建模,创建数据存储路径,随机初始并存储个体、群体和多视角相机的初始位置;
8.设置个体、群体和相机的初始位置,将初始化的所有行人类、群体类对象分别加入行人类和群体类队列中;
9.按帧执行群体演化函数,通过演化函数判断当前帧演化是否还未开始或已经完成来判断是否执行演化,执行演化时将涉及的个体和群体移出队列,演化结束后将新生成的个体和群体加入各自队列中;
10.按帧控制当前帧行人类和群体类队列中所有剩余个体和群体的运动,并按帧控制相机的运动,存储各视角相机下拍摄的包含行人和拍摄者的视频数据;存储该视频中所有群体演化的种类、起始帧、终止帧信息。
11.其中,若生成视频每帧中人物的标注框位置、人物id及所属群体的id信息,则需要存储所有人物在每帧下的位置、朝向和行为动作信息。
12.本发明提供的技术方案的有益效果是:
13.1、该方法旨在解决针对多视角下多人关系感知视频分析任务的研究需要大量数据的支撑,而大量真实数据的采集与标注成本巨大的问题;该方法可以较为轻松的获取多视角相机下视频分析所需的训练数据;
14.2、本发明可以为面向多视角(特别是顶视和水平视角构成的互补视角)多人关系感知的视频分析任务生成大量且丰富的数据,同时比人为采集数据所花费的人力、物力少得多,并且标注也更加得快速、准确;
15.3、本发明具有可调节性可以根据任务的需求模拟场景,在生成合成视频数据时允许多种参数进行更改,例如:初始时个体的数量、群体的数量以及每个群体中的人数,群体演化的种类和数量,水平视角相机的种类和数量等,同时场景中的光照也允许多种参数修改来为视频分析任务创造出各种光照环境;
16.4、本发明中生成的合成视频数据集中的行人均是来自于3d开发引擎制作的人物模型,这些模型充分模拟现实中行人的样子,具有不同的肤色、年龄、身形、发型、服饰等,同时一些角色还会有手提箱、背包、眼镜或帽子等,但他们不具有真人的长相,因此可以有效减少安全性和隐私问题。
附图说明
17.图1为面向多视角多人关系感知的合成视频数据生成方法的流程图;
18.图2为加入演化的示意图;
19.图3为type=1时离开演化的示意图;
20.图4为type=0时解散演化的示意图;
21.图5为聚合演化的示意图;
22.图6为合并演化的示意图;
23.图7为分离演化的示意图。
具体实施方式
24.为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
25.本发明实施例涉及到的技术背景有:
26.(1)合成数据(参见文献[1]和[2]):合成数据是指根据先验知识获取可控的新样本,特指通过使用模拟的场景来获取特定的图像、视频和其标注信息,一般是基于unreal、blender和unity等游戏引擎来创建合成数据。合成数据可以简单地理解为“对于某个视觉任务,构建一个特定虚拟世界,在其中拥有上帝视角”。合成数据可以有效地减少人力物力的消耗,并且获取一些任务中在现实难以获取和标注的数据,同时,利用合成数据的可控制性,可以在研究中对问题进行定性、定量的实验分析,从而更深入且科学地研究一些新的问题。目前使用合成数据进行计算机视觉研究的主要出发点依旧是为了解决“数据问题”,例如在cvpr2019中提出的基于unity引擎针对行人重识别任务而设计的personx合成引擎和为了进行视频上的amodal语义分割(分割每个对象实例包括其不可见的、被遮挡的部分)而构建的sail-vos数据集。
[0027]
(2)无人机和可穿戴式相机(参见文献[3]):运动相机技术的进步为视频监控提供
了新的视角。无人机(例如空中无人驾驶飞机)可以提供地面上一组对象的俯视图。可穿戴式摄像机(例如google glass和gopro)安装在佩戴者的头上,可以提供同一组物体的水平视图。本发明实施例为多视角下的多人关系感知视频分析任务生成数据,其中空中有一个顶视摄像头,而地面上有多个水平摄像头。由于俯视图和水平视图可以很好地进行信息的互补,因此它可以为户外监视提供更好的覆盖范围和灵活性,可以有效应用于协作跟踪、个人/群体活动识别等任务中。
[0028]
为了解决背景技术中存在的问题,本发明实施例提出了一种面向多人关系感知的合成视频生成方法,在生成大规模多人场景多视角视频数据的同时生成标注,以便为视频分析算法的研究提供充足且丰富的训练数据。
[0029]
本发明实施例首先将人物模型加载到场景模型中,通过赋予每个人物(以个体或群体的形式)随机的起始位置和朝向来进行初始化操作。其次设置多视角相机的类型来分别模拟无人机视角的顶视相机和穿戴式相机视角的平视相机。然后控制场景中多人的运动行为,包括:行人移动轨迹,速度姿态,交互行为(如交谈)等,模拟生成接近真实场景下的多视角多人场景视频数据,同时除了模拟行人移动、群体内部交互行为外,还会模拟群体的生成及其变化过程,包括:

加入:多个个体加入已经生成的群体;

离开:多个个体离开原本参与的群体;

合并:多个群体合并为一个群体;

分离:一个群体分离为多个群体;

聚合:多个个体短时间聚集生成群体;

解散:群体短时间解散为多个个体。最后,在生成视频数据的同时还会生成该视频中所有演化的类型、起始帧、终止帧和视频每帧中人物的标注框位置、人物id及所属群体的id等信息,从而无需进行手工标注,节省人力、物力。
[0030]
实施例1
[0031]
本发明实施例提供了一种基于3d开发工具的面向多视角多人关系感知的合成视频数据生成方法,参见图1,该方法包括以下步骤:
[0032]
步骤s1:设置行人类、群体类和演化类,并根据视频生成的需求进行初始化;
[0033]
步骤s2:加载人物模型和场景建模,创建数据存储路径,随机初始并存储个体、群体和多视角相机(和拍摄者)的初始位置;
[0034]
步骤s3:设置个体、群体和相机(和拍摄者)的初始位置,将初始化的所有行人类、群体类对象分别加入行人类和群体类队列中;
[0035]
步骤s4:按帧执行群体演化函数,通过演化函数判断当前帧演化是否还未开始或已经完成来判断是否执行演化,执行演化时会将涉及的个体和群体移出队列,演化结束后将新生成的个体和群体加入各自队列中;
[0036]
步骤s5:按帧控制当前帧行人类和群体类队列中所有剩余个体和群体的运动,并按帧控制相机(和拍摄者)的运动,存储各视角相机下拍摄的包含行人和拍摄者的视频数据;
[0037]
步骤s6:存储该视频中所有群体演化的种类、起始帧、终止帧等信息;同时如果还需要生成视频每帧中人物的标注框位置、人物id及所属群体的id等信息,则还需要存储所有人物在每帧下的位置、朝向和行为动作等信息。
[0038]
综上所述,本发明实施例通过上述步骤s1至步骤s6,实现了多视角下多人关系感知视频分析任务所需数据集的采集与标注成本巨大的问题,满足了实际应用中的多种需要。
[0039]
实施例2
[0040]
下面结合具体的实例、公式对实施例1中的方案进行进一步地介绍,详见下文描述:
[0041]
(一)行人、群体及演化类的设置
[0042]
由于3d开发工具如unity引擎是按帧更新场景和状态的,因此每次调用实现群体演化的函数时,其实只会运行一帧,需要存储每帧函数运行后的状态信息。在本发明实施例中主要创建了行人类(person)、群体类(group)和演化类(activity)来存储这些信息。
[0043]
1、person类:在该类中定义了4个变量。
[0044]
(1)person_id:它记录着行人的id号,该id号即为行人的人物模型加载到场景后存储在数组中的下标,通过该id号可以方便控制人物模型的各种行为。
[0045]
(2)distance:记录着行人与要加入群体中心的距离,在行人加入群体和多行人聚集成群体的演化行为中,需要根据distance的值来判断行人是否移动到目标位置。
[0046]
(3)atposition:记录着该行人是否已经加入到群体中,在行人加入群体和多行人聚集成群体的演化行为中,由于每个行人加入群体的速度不同,需要根据每个行人的atpsoition值才能判断是否所有人都完成了演化行为。
[0047]
(4)needrotate:记录着行人当前帧下剩余的旋转角度,为了使行人在生成视频中的旋转看起来更加平滑、连贯,故设置了一个全局变量,用来限制人物每帧的最大旋转角度。因此当人物需要旋转的角度较大时,它无法在一帧中完成,需要needrotate来时刻记录着该人的剩余旋转角度。
[0048]
2、group类:在该类中定义了3个变量。
[0049]
(1)memberid:它是一个list,用来存储群体中所有人的id。在本发明实施例中群体设置为有一个中心人物,外层有两圈人包裹的形式,群体中id的存储顺序有如下规范:memberid[0]的位置存中心人物的id,存储第一圈行人的id,存储第二圈行人的id,其中n为群体中的总人数。
[0050]
(2)total_member:记载着群体中的总人数(群体中的总人数必须大于等于2)。
[0051]
(3)needrotate:它也是一个list,用于记载着群体中每个人在当前帧下剩余的旋转角度,存储顺序与memberid的存储顺序保持对应关系。
[0052]
(4)group_id:记载该群体的id,即该群体中的所有行人所属群体的id。
[0053]
3、activity类:不同群体演化有不同的演化类,下面对它们具有的一些共同变量进行说明。
[0054]
(1)start_frame:即演化行为的起始帧,只有在当前帧=起始帧时,才会开始群体演化。
[0055]
(2)isend:标志着演化行为是否结束,若该演化类的isend=true,则演化函数不会执行相应的演化,而是直接退出。
[0056]
(3)join_person:是一个person类型的list,用来存储所有参与该演化的个体,在演化函数中方便对这些个体进行直接操作。
[0057]
(4)join_group:是一个group类型的list,用来存储所有参与演化的群体,在演化函数中方便对这些群体直接进行操作。
[0058]
(二)个体和群体位置的初始化
[0059]
本发明实施例中所有行人(包括个体和群体)的初始位置设定在一个圆环区域中随机产生,圆环的内径和外径可以自行设定,通过在[内径,外径]之间随机产生半径长度,并在[0
°
,360
°
)之间随机产生旋转角度,可以根据极坐标变换计算得到每个个体和群体中心人物的初始位置,之后在[0
°
,360
°
)之间随机产生一个初始朝向,即完成了每个个体和群体中心人物位置初始化的操作。在完成群体中心人物位置初始化后,根据设定的该群体中的总人数,划分出第一圈和第二圈行人(具有不同的半径),并分别为这些行人在[0
°
,360
°
)之间随机产生以群体中心人物为中心的旋转角度θ,则(x+r*cosθ,z+r*sinθ)为这些行人各自的初始位置,其中(x,z)为群体中心人物的初始位置,群体中每个人的初始朝向与该群体中心人物的初始朝向一致,至此个体和群体的位置初始化操作全部完成。
[0060]
(三)相机类型及初始化
[0061]
本发明实施例中有两种类型的相机,顶视视角相机和水平视角相机,顶视视角相机模拟无人机拍摄的画面无需放置拍摄者,而水平视角相机模拟的是手持相机或可穿戴相机拍摄的画面需要放置拍摄者,即总共有4种类型的水平视角相机可供选择:
[0062]
(1)拍摄者站在人群外部,向人群中心拍摄,拍摄者不会移动,同时相机视野也不会移动。对于这种类型的相机,每帧无需对拍摄者和相机进行更新。
[0063]
(2)拍摄者站在人群外部,向人群中心拍摄,相机会左右摆动镜头,拍摄者跟随镜头转动。对于这种相机,在每帧进行更新时,需将此帧相机摆动的偏移角度和摆动方向记录下来,存到数组中(因为可能存在多个水平视角相机),同时为了防止相机摆动幅度过大,导致视野中基本没有行人的情况发生,需对摆动范围进行限制,在此限制摆动范围在[-15
°
,15
°
]之间,通过设定相机每帧的摆动度数和相机当前帧的偏移角度,来计算、更新相机的摆动方向和偏移角度,以此将相机的摆动范围限制在规定的角度内。
[0064]
(3)拍摄者站在人群外部,向人群中心拍摄,同时拍摄者会围绕人群进行圆周运动,在移动过程中相机会左右摆动,拍摄者跟随镜头转动。对于这种相机,在每帧进行更新时,要先根据拍摄者旋转速度和圆周半径长度计算该帧下相机和拍摄者的位置,然后再对相机和拍摄者进行左右摆动的更新,方法与类型(2)的相机一致,这里就不再赘述。
[0065]
(4)拍摄者站在人群内部,向背离人群中心的位置拍摄,拍摄者不会移动,但会随着相机摆动。对于这种相机,在每帧进行更新时无需对相机的摆动范围进行限制,360度都可以旋转,只需要根据相机摆动速度,每帧对相机和拍摄者进行转动即可。
[0066]
为了使这些相机从较大视角差异的位置进行拍摄,相机和对应的拍摄者也需要进行初始化操作。对于顶视相机而言,初始化时只需要随机生成[0
°
,360
°
)的旋转角度,即将相机根据竖直轴(y轴)随机旋转一个角度。对于水平视角下第(1)、(2)种相机,在初始化时只需要根据设定的相机半径长度和随机生成的初始旋转角度,即可通过极坐标变换算出初始的相机和拍摄者位置;对于第(3)种相机在初始化时,需要每使用一个第(3)种相机就将相机半径长度缩小一定值,这样能避免拍摄者在移动时轨迹重叠;最后第(4)种相机由于要生成在人群内部,所以在初始化时相机半径要小于人群初始化圆环内径的长度。同时水平视角相机在初始化时还可以进行抬头、低头、左歪头和右歪头的设置,以满足不同视角下视频研究分析的需求。
[0067]
(四)行人及群体的存储
[0068]
本发明实施例中使用person类型的队列queue_person和group类型的队列queue_group来存储当前帧所有可用的个体和群体,即当前没有参与任何演化的个体和群体。同时在每帧对个体和群体的轨迹进行控制时,也只会对queue_person和queue_group中所有的个体和群体进行移动,所有演化函数要自行对参与演化的个体和群体进行控制。使用队列的优势是演化函数会从队首选择参与演化的个体和群体,完成演化后将新生成的个体和群体加入队尾,这样每个个体和群体都有机会参与演化,同时队列后进后出的原则也会保证刚参加完演化的个体和群体不会马上又参加演化,保证了队列中的其它个体和群体能尽快参与演化,使生成的视频数据更加自然、真实。
[0069]
(五)行人轨迹控制
[0070]
人物模型可以通过每帧改变其朝向,并向自己朝向的前方移动来改变物理位置,因此为了使生成视频中场景里的个体及群体具有不同的行动轨迹,除了将这些个体和群体初始化在不同的位置外,还可以让它们具有不同的旋转速度和移动速度,在本发明实施例中赋予了人物模型一个基准移动速度:
[0071][0072]
最大偏移速度:
[0073]
δv=0.05*人物模型的高度
[0074]
由此每个个体和群体(群体中每个人的移动速度等于群体中心人物的移动速度)的移动速度为:
[0075]
n为场景中总人物
[0076]
这样场景中的每个个体和群体便拥有了不同移动速度,接下来同样赋予人物模型一个基准旋转速度ω=5
°
/帧和最大偏移旋转速度δω=10
°
/帧,并约定每个个体和群体(群体中每个人的旋转速度等于群体中心人物的旋转速度)的旋转速度为:
[0077]
n为场景中总人数
[0078]
这样场景中的每个个体和群体也拥有了不同的旋转速度,至此行人的轨迹控制问题得到了解决。
[0079]
(六)群体演化的实现
[0080]
(1)加入演化:
[0081]
加入演化即多个个体加入已经生成的群体,设计方案为首先选出一个群体停止移动并全体转向中心(群体中心人物转向群体中的第二个人)进行交谈,之后随机选择一定数量的行人,根据他们的当前位置确定各自的旋转角度和应到位置并加入到群体中进行交谈,待所有行人加入完毕后,群体中的所有人停止交谈,一起开始移动。示意图如图2所示。
[0082]
(2)离开和解散演化:
[0083]
离开演化即多个个体离开原本参与的群体,对于该演化行为共设计了两种实现方式,通过演化类里的type变量来区分。当type=0时,参与演化的群体会随机选出一些离开的个体,这些个体会在跟随群体一起移动的过程中向背离群体中心的方向离开。当type=1
时,参与演化群体中的所有人会先停止移动并全体转向中心(群体中心人物转向群体中的第二个人)进行交谈,之后随机选出一些离开的个体在一段随机时间后向背离群体中心的方向离开,再经过一段随机时间后,群体中剩余的所有人停止交谈,一起开始移动。示意图如图3所示。
[0084]
解散演化即群体短时间解散为多个个体,对于该演化行为也设计了两种实现方式,同样通过演化类里的type变量来区分。实现流程与离开演化基本一致,只不过不再是随机选择离开个体,而是全部个体都要离开,这里就不再赘述。示意图如图4所示。
[0085]
(3)聚合演化:
[0086]
聚合演化即多个个体短时间聚集生成群体,设计方案为首先选出两个个体,并计算个体之间的距离,若距离小于阈值(阈值稍大于两者在群体中的应有距离)则个体会继续移动直到距离大于阈值,之后两个个体会向目前的中心位置o移动,此时会再随机选择一定数量的行人也向位置o移动,到达目标位置的人便开始进行交谈,直到所有人都加入到群体后,随机一段时间群体中的所有人停止交谈,一起开始移动。示意图如图5所示。
[0087]
(4)合并演化:
[0088]
合并演化即多个群体合并为一个群体,设计方案为首先选出多个群体,其中一个作为主群体,主群体停止移动并全体转向中心(群体中心人物转向群体中的第二个人)进行交谈,其他选中的每个剩余群体计算和主群体中心位置o的距离,若距离小于预设阈值1,则该群体进行远离,否则该群体向中心位置o移动,直到与中心位置距离预设阈值2(预设阈值2《预设阈值1)的距离,此时为该群体中所有人计算每个人的随机应到位置,并且该群体解散每个人向各自的应到位置移动,到达位置后若该人未朝向中心位置o,则需旋转朝向中心,并进行交谈动作。待所有剩余群体中的所有人都加入到主群体后,随机一段时间群体中的所有人停止交谈,一起开始移动。示意图如图6所示。
[0089]
(5)分离演化:
[0090]
分离演化即一个群体分离为多个群体,设计方案为首先选出一个群体,该群体停止移动并全体转向中心(群体中心人物转向群体中的第二个人)进行交谈,之后随机生成分离出群体的组数和每组的人数(保证每组人数大于等于2),并赋予每一个群体分离的随机起始帧和聚集位置。在当前帧=该群体的分离起始帧时,该群体中所有人离开原群体,并向新群体的位置聚集进行交谈,待该群体中的所有人聚集后,随机一段时间该群体中的所有人停止交谈,一起开始移动。最后当所有群体都完成分离后,分离演化结束。示意图如图7所示。
[0091]
实施例3
[0092]
本发明实施例除上述实施例中的步骤s1至步骤s6之外,还包括以下步骤:
[0093]
步骤s7:删除场景建模,并将各视角相机的渲染背景设置为纯黑色,设置行人和相机(和拍摄者)的初始位置与步骤s3相同,每次只显示一人,根据步骤s6中存储的人物在每帧下的位置、朝向和行为动作信息来按帧控制行人和相机(和拍摄者)的运动,并存储各视角相机下拍摄的该人纯黑背景视频数据;
[0094]
对于生成的虚拟视频数据,由于场景背景和其它人物干扰的存在,无法直接获取每个人物的标注框。因此为了能够生成所有人物的标注框,本发明实施例在第一遍生成完虚拟场景视频后,会再运行(行人总数+拍摄者总数)遍(人物id从0到(行人总数+拍摄者总
数-1)),每一遍都是第一遍运行过程的完全复现,同时为了保证在每遍运行中相同相机在相同帧拍摄到的内容是完全一样的,需要在第一遍运行时对所有行人在每帧下的位置、朝向和行为动作以及各视角相机的初始位置等信息进行存储,之后每运行一遍就使用这些保存的数据进行设置,即可保证人物的位置、动作,相机的位置与第一遍完全相同。同时为了排除其它人物的干扰,从第二遍开始,每遍只显示一个人,这样通过一遍的运行就可以得到各视角下只包含目标人物的虚拟视频。
[0095]
接着为了排除场景和背景的干扰,需要在系统第一遍运行结束后,移除场景文件,同时将所有拍摄相机的渲染背景设置为纯黑色,这样最终可以得到每个人物在所有相机下只包含单个人物且其它背景全为黑色的虚拟视频。
[0096]
步骤s8:重复步骤s7,直至所有行人和拍摄者的单人纯黑背景视频数据存储完毕后结束;
[0097]
步骤s9:根据步骤s8中得到的所有单人纯黑背景视频计算得到步骤s5中得到的各视角视频中每帧所有人的矩形标注框位置、人物id及所属群体id;
[0098]
对于背景全黑只有人物不是黑色的图片来说,直接遍历图片中的所有像素,找到最小非黑像素横坐标xmin、最小非黑像素纵坐标ymin、最大非黑像素横坐标xmax、最大非黑像素纵坐标ymax,则(xmin,ymin)和(xmax,ymax)即为该人物标注框的左上和右下坐标。同时对于每个人物的id,在重复运行(行人总数+拍摄者总数)遍的过程中,会根据运行顺序为其指派一个0到(行人总数+拍摄者总数-1)间的值。
[0099]
最后需要计算每个人所属的群体id,对于所有的个体而言没有所属的群体,因此它们所属群体id统一设置为-1。对于所有的群体而言,可以分成存储在群体队列中的没有参与演化的群体和不在群体队列中正在参与演化的群体两类。对于第一类,该群体实例的group_id变量值即为该群体中所有人的群体id,同时设置一个全局变量next_groupid(从0开始)用来记录下个可用的群体id号,每当有新的群体生成时,该群体实例的group_id即为next_groupid。对于第二类,该群体中每个人所属的群体id由当前演化的执行状态和next_groupid共同决定。
[0100]
步骤s10:去除步骤s9中得到的各视角视频中每帧中被遮挡严重人物的标注框,剩余的标注框即为所求。
[0101]
利用上一步找到一帧中所有人物标注框的位置后,还需要解决遮挡的问题,即不应该对被挡住大部分身体的人物画出标注框。方法是将本帧中所有的标注框按面积大小由大到小排序,从左到右遍历所有未删除的标注框,在遍历过程中再遍历当前选中标注框所有右侧未删除的标注框,若两者标注框的交叠面积超过面积较小标注框面积的1/2,则删除较小面积的标注框。
[0102]
参考文献
[0103]
[1]sun x,zheng l.dissecting person re-identification from the viewpoint of viewpoint[c]//2019ieee/cvf conference on computer vision and pattern recognition.ieee,2020.
[0104]
[2]hu y t,chen h s,hui k,et al.sail-vos:semantic amodal instance level video object segmentation

a synthetic dataset and baselines[c]//2019ieee/cvf conference on computer vision and pattern recognition.ieee,2019.
[0105]
[3]zhao j,han r,gan y,et al.human identification and interaction detection in cross-view multi-person videos with wearable cameras[c]//acm multimedia conference 2020.acm,2020.
[0106]
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
[0107]
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0108]
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1