目标跟踪方法、装置及可读存储介质

文档序号:29126808发布日期:2022-03-05 00:16阅读:136来源:国知局
目标跟踪方法、装置及可读存储介质

1.本发明涉及计算机数据处理技术领域,特别是涉及一种目标跟踪方法、装置及可读存储介质。


背景技术:

2.目标跟踪是指在视频序列中对感兴趣的目标进行有效的跟踪,通过计算机获取到视频,并对视频信息进行处理和分析,在视频图像中找到独立的运动目标,在后续的视频序列中检测出运动目标区域位置并且标记出来,为后期对目标的轨迹、行为等信息进行分析做准备。
3.目前,在军事领域中,目标跟踪的主要应用包括战场监视、海洋监视、防空、空中攻击和火力控制等方面。在民用领域中,目标跟踪主要用于海上交通管制、空中交通管制和卫星导航、定位与监视等方面。随着科学技术的不断发展,现代跟踪环境的显著变化,各种应用系统对多目标跟踪提出了日益复杂的要求。
4.由于在跟踪过程中背景纷繁复杂,目标会发生遮挡、形变、光照等变化,这些都给目标跟踪带来了巨大挑战。现有的目标跟踪方法对目标尺度的变化不具备自适应性,无法对目标发生变化后进行准确、鲁棒的表示,无法对目标的位置进行准确的定位,影响了复杂背景下对目标的跟踪性能。


技术实现要素:

5.为此,本发明的一个实施例提出一种目标跟踪方法,以解决现有技术对目标尺度的变化不具备自适应性,无法对目标发生变化后进行准确、鲁棒的表示,无法对目标的位置进行准确的定位,影响了复杂背景下对目标的跟踪性能的技术问题。
6.根据本发明一实施例的目标跟踪方法,包括:获取待跟踪的视频序列中的第一帧图像;通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得结构性特征;根据所述结构性特征生成用于对跟踪目标进行分类的分类器;获取待跟踪的视频序列中除所述第一帧图像以外的目标帧图像;将所述视频序列中的目标帧图像输入至所述分类器中进行分类,并通过第二卷积神经网络生成特征图;利用所述特征图以及上下文信息训练上下文滤波器以及尺度滤波器,其中所述上下文信息表示当前帧图像与上一帧图像及下一帧图像之间的关联信息;将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪。
7.根据本发明实施例的目标跟踪方法,通过第一卷积神经网络对通用图像以及第一帧图像进行离线训练,获得结构性特征,然后根据结构性特征生成用于对跟踪目标进行分
类的分类器,由于离线训练的图像是种类广泛的通用图像,能够得到多样性的结构性特征,当目标发生遮挡和变化,仍然可以通过重新训练特征的参数对变化后的目标进行准确、鲁棒的表示,通过分类器对目标帧图像进行分类,并通过第二卷积神经网络生成特征图,得到了特征图和上下文信息训练上下文滤波器以及尺度滤波器,通过上下文滤波器和尺度滤波器能够实现平移估计和尺度估计,提高了对于目标尺度变化的自适应性,而结合上下文滤波器、尺度滤波器与特征图,能够对目标的位置进行准确的定位,最终提升了复杂背景下对目标的跟踪性能。
8.另外,根据本发明上述实施例的目标跟踪方法,还可以具有如下附加的技术特征:进一步地,通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得结构性特征的步骤包括:通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得第一卷积神经网络模型;通过sigmoid分类器的分类层对所述第一卷积神经网络模型中的输出层进行替换,以获得改进后的第一卷积神经网络模型;通过改进后的第一卷积神经网络模型提取结构性特征。
9.进一步地,所述根据所述结构性特征生成用于对跟踪目标进行分类的分类器的方法包括如下步骤:根据改进后的第一卷积神经网络模型,从所述结构性特征中抽取得到n个子状态特征;通过元采样器采样得到每个子状态特征对应的状态特征标识符以及子状态特征权重值;为每个所述状态特征标识符对应的子状态特征分配对应的子分类器,每个所述子分类器与所述子状态特征权重值一一对应;将每个所述子分类器以及对应的所述子状态特征权重值进行归一化集成以生成所述用于对跟踪目标进行分类的分类器。
10.进一步地,利用所述特征图以及上下文信息训练上下文滤波器以及尺度滤波器的步骤具体包括:在所述特征图中获取目标中心,在以所述目标中心为中心点的预设范围内,提取所有图块的特征用于构造训练样本,并通过所述训练样本以得到初始上下文滤波器和初始尺度滤波器;对所述训练样本进行更新,并采用更新后的训练样本对所述初始上下文滤波器和所述初始尺度滤波器进行更新计算,经过若干次迭代更新后,获取所述上下文滤波器和所述尺度滤波器。
11.进一步地,将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪的步骤具体包括:在所述上下文滤波器中,将所述目标帧图像的上下文信息与所述特征图的卷积特征相结合,以定位所述目标帧图像的下一帧图像中的跟踪目标的位置;根据所述目标帧图像的下一帧图像中的跟踪目标的位置,使用所述尺度滤波器计
算所述目标帧图像的下一帧图像中的跟踪目标的尺度;根据所述目标帧图像的下一帧图像中的跟踪目标的位置和尺度进行目标跟踪。
12.进一步地,将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪的步骤之后,所述方法还包括:获取所述视频序列中目标帧图像的下一帧图像在时序上的时序稳定值以及所述跟踪目标的初始外观模型;根据所述时序稳定值以及所述上下文信息判断所述目标帧图像的下一帧图像中的跟踪目标的遮挡状态;若所述遮挡状态满足预设遮挡条件,则根据所述遮挡状态对所述初始外观模型进行更新。
13.进一步地,所述遮挡状态包括被遮挡程度以及被遮挡位置坐标,判断所述遮挡状态是否满足预设遮挡条件的方法包括:判断所述被遮挡程度是否大于预设遮挡程度;根据所述遮挡状态对所述初始外观模型进行更新的方法包括如下步骤:根据所述被遮挡位置坐标确定对应的被遮挡区域边界,其中所述被遮挡区域边界内包含有混合外观图像特征;从所述被遮挡区域边界中的所述混合外观图像特征中提取得到与所述跟踪目标对应的真实外观图像特征;从所述跟踪目标中割离所述被遮挡区域边界对应的区域后以得到第一碎片跟踪目标,其中所述第一碎片跟踪目标对应有第一矢量边界,其中所述第一矢量边界为与所述被遮挡区域边界相接的边界;根据所述真实外观图像特征从预设图像数据集中提取并生成对应的拼接矢量图块,将所述拼接矢量图块与所述第一矢量边界进行拼接,以完成所述跟踪目标的初始外观模型的更新。
14.进一步地,所述通用图像为多个,每个所述通用图像对应有一通用图像序号,在将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪的步骤之后,所述方法还包括:获取进行跟踪时所确定的每个所述跟踪目标对应的跟踪目标图像特征;依序对每个所述跟踪目标图像特征进行序列编码以分别得到跟踪目标图像特征序号;将所述跟踪目标图像特征序号与所述通用图像序号一一匹配,并分别调用对应的跟踪目标图像特征与对应的通用图像进行特征比对,以分别生成多个跟踪相似度值;根据多个所述跟踪相似度值生成跟踪质量曲线,以对目标跟踪质量进行评估。
15.根据本发明一实施例的目标跟踪装置,包括:第一获取模块,用于获取待跟踪的视频序列中的第一帧图像;第一训练模块,用于通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得结构性特征;分类模块,用于根据所述结构性特征生成用于对跟踪目标进行分类的分类器;
第二获取模块,用于获取待跟踪的视频序列中除所述第一帧图像以外的目标帧图像;输入生成模块,用于将所述视频序列中的目标帧图像输入至所述分类器中进行分类,并通过第二卷积神经网络生成特征图;第二训练模块,用于利用所述特征图以及上下文信息训练上下文滤波器以及尺度滤波器,其中所述上下文信息表示当前帧图像与上一帧图像及下一帧图像之间的关联信息;跟踪模块,用于将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪;所述第一训练模块具体用于:通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得第一卷积神经网络模型;通过sigmoid分类器的分类层对所述第一卷积神经网络模型中的输出层进行替换,以获得改进后的第一卷积神经网络模型;通过改进后的第一卷积神经网络模型提取结构性特征。
16.根据本发明实施例的目标跟踪装置,通过第一卷积神经网络对通用图像以及第一帧图像进行离线训练,获得结构性特征,然后根据结构性特征生成用于对跟踪目标进行分类的分类器,由于离线训练的图像是种类广泛的通用图像,能够得到多样性的结构性特征,当目标发生遮挡和变化,仍然可以通过重新训练特征的参数对变化后的目标进行准确、鲁棒的表示,通过分类器对目标帧图像进行分类,并通过第二卷积神经网络生成特征图,得到了特征图和上下文信息训练上下文滤波器以及尺度滤波器,通过上下文滤波器和尺度滤波器能够实现平移估计和尺度估计,提高了对于目标尺度变化的自适应性,而结合上下文滤波器、尺度滤波器与特征图,能够对目标的位置进行准确的定位,最终提升了复杂背景下对目标的跟踪性能。
17.另外,根据本发明上述实施例的目标跟踪装置,还可以具有如下附加的技术特征:进一步地,所述跟踪模块具体用于:在所述上下文滤波器中,将所述目标帧图像的上下文信息与所述特征图的卷积特征相结合,以定位所述目标帧图像的下一帧图像中的跟踪目标的位置;根据所述目标帧图像的下一帧图像中的跟踪目标的位置,使用所述尺度滤波器计算所述目标帧图像的下一帧图像中的跟踪目标的尺度;根据所述目标帧图像的下一帧图像中的跟踪目标的位置和尺度进行目标跟踪。
18.进一步地,所述第二训练模块具体用于:在所述特征图中获取目标中心,在以所述目标中心为中心点的预设范围内,提取所有图块的特征用于构造训练样本,并通过所述训练样本以得到初始上下文滤波器和初始尺度滤波器;对所述训练样本进行更新,并采用更新后的训练样本对所述初始上下文滤波器和所述初始尺度滤波器进行更新计算,经过若干次迭代更新后,获取所述上下文滤波器和所述尺度滤波器。
19.进一步地,所述装置还包括:
第三获取模块,用于获取所述视频序列中目标帧图像的下一帧图像在时序上的时序稳定值以及所述跟踪目标的初始外观模型;判断模块,用于根据所述时序稳定值以及所述上下文信息判断所述目标帧图像的下一帧图像中的跟踪目标的遮挡状态;更新模块,用于若所述遮挡状态满足预设遮挡条件,则根据所述遮挡状态对所述初始外观模型进行更新。
20.本发明还提供一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述的目标跟踪方法。
21.本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实施例了解到。
附图说明
22.本发明实施例的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:图1是根据本发明第一实施例的目标跟踪方法的流程图;图2是图1中步骤s102的详细流程图;图3是图1中步骤s103的详细流程图;图4是步骤s106的详细流程图;图5是图1中步骤s107的详细流程图;图6是根据本发明第二实施例的目标跟踪方法的流程图;图7是图6中步骤s203的详细流程图;图8是本发明第三实施例的目标跟踪方法的流程图;图9是本发明第四实施例中目标跟踪装置的结构示意图。
具体实施方式
23.为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
24.实施例一:请参阅图1,本发明第一实施例提出的目标跟踪方法,所述方法包括步骤s101~s105:s101,获取待跟踪的视频序列中的第一帧图像。
25.其中,视频序列是指用户自行输入的视频数据或者通过爬虫数据并采用预设的抓取条件爬取到的视频数据,将该视频序列作为待跟踪的视频序列,并获取该获取视频序列中第一帧图像。
26.s102,通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得结构性特征。
27.请参阅图2,步骤s102具体包括步骤s1021~s1023:
s1021,通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得第一卷积神经网络模型。
28.其中,需要预先获取种类广泛的通用图像,具体实施时,需要获取大量的种类广泛的通用图像。然后通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得第一卷积神经网络模型。第一卷积神经网络可以采用全卷积网络或树结构卷积神经网络。
29.s1022,通过sigmoid分类器的分类层对所述第一卷积神经网络模型中的输出层进行替换,以获得改进后的第一卷积神经网络模型。
30.其中,将原有的第一卷积神经网络模型的输出层改为由一个sigmoid分类器构成的分类层,使用离线训练得到的通用目标特征对跟踪目标重新训练调整特征参数,从而可以得到一个可以针对特定目标进行分类的改进后的第一卷积神经网络模型。
31.s1023,通过改进后的第一卷积神经网络模型提取结构性特征。
32.其中,通过改进后的第一卷积神经网络模型提取结构性特征,结构性特征具体是指能够对通用目标进行表示的从简单到复杂的结构性特征。
33.s103,根据所述结构性特征生成用于对跟踪目标进行分类的分类器。
34.其中,使用预训练得到的具有结构性的特征,通过在线训练的方式得到可以对跟踪目标进行分类的分类器。
35.具体的,请参阅图3,步骤s103具体包括s1031~ s1034:s1031,根据改进后的第一卷积神经网络模型,从所述结构性特征中抽取得到n个子状态特征。
36.s1032,通过元采样器采样得到每个子状态特征对应的状态特征标识符以及子状态特征权重值。
37.可以理解的,每个状态特征标识符可对各不同的子状态特征进行区分。
38.s1033,为每个所述状态特征标识符对应的子状态特征分配对应的子分类器,每个所述子分类器与所述子状态特征权重值一一对应。
39.s1034,将每个所述子分类器以及对应的所述子状态特征权重值进行归一化集成以生成所述用于对跟踪目标进行分类的分类器。
40.也即,将所有的子分类器按照对应的子状态特征权重值进行归一化集成,以最终得到分类器,从而用于对跟踪目标进行分类。
41.s104,获取待跟踪的视频序列中除所述第一帧图像以外的目标帧图像。
42.其中,视频序列中除第一帧图像以外的目标帧图像可以是第二帧图像,或者第三帧图像等,在此不予限定。
43.s105,将所述视频序列中的目标帧图像输入至所述分类器中进行分类,并通过第二卷积神经网络生成特征图。
44.其中,第二卷积神经网络具体是vggnet卷积神经网络,vggnet卷积神经网络具有非常良好的泛化性能,vggnet卷积神经网络有6种网络结构,每种网络结构都包括五组使用3*3卷积核的卷积,在每组卷积之后会进行2*2的最大池化并在后面连接着三层全连接层,因此,能够更好的对权重进行初始化。
45.s106,利用所述特征图以及上下文信息训练上下文滤波器以及尺度滤波器。
46.请参阅图4,步骤s106具体包括步骤s1061~s1062:s1061,在所述特征图中获取目标中心,在以所述目标中心为中心点的预设范围内,提取所有图块的特征用于构造训练样本,并通过所述训练样本以得到初始上下文滤波器和初始尺度滤波器。
47.s1062,对所述训练样本进行更新,并采用更新后的训练样本对所述初始上下文滤波器和所述初始尺度滤波器进行更新计算,经过若干次迭代更新后,获取所述上下文滤波器和所述尺度滤波器。
48.其中,对训练样本进行更新是指扩大目标中心的筛选范围,选取目标中心周围其它的图块,以实现训练样本的更新。
49.s107,将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪。
50.请参阅图5,步骤s107具体包括步骤s1071~s1073:s1071,在所述上下文滤波器中,将所述目标帧图像的上下文信息与所述特征图的卷积特征相结合,以定位所述目标帧图像的下一帧图像中的跟踪目标的位置。
51.s1072,根据所述目标帧图像的下一帧图像中的跟踪目标的位置,使用所述尺度滤波器计算所述目标帧图像的下一帧图像中的跟踪目标的尺度。
52.s1073,根据所述目标帧图像的下一帧图像中的跟踪目标的位置和尺度进行目标跟踪。
53.根据本实施例提供的目标跟踪方法,通过第一卷积神经网络对通用图像以及第一帧图像进行离线训练,获得结构性特征,然后根据结构性特征生成用于对跟踪目标进行分类的分类器,由于离线训练的图像是种类广泛的通用图像,能够得到多样性的结构性特征,当目标发生遮挡和变化,仍然可以通过重新训练特征的参数对变化后的目标进行准确、鲁棒的表示,通过分类器对目标帧图像进行分类,并通过第二卷积神经网络生成特征图,得到了特征图和上下文信息训练上下文滤波器以及尺度滤波器,通过上下文滤波器和尺度滤波器能够实现平移估计和尺度估计,提高了对于目标尺度变化的自适应性,而结合上下文滤波器、尺度滤波器与特征图,能够对目标的位置进行准确的定位,最终提升了复杂背景下对目标的跟踪性能。
54.实施例二:此外,作为一个具体示例,请参阅图6,本发明第二实施例的目标跟踪方法,在步骤s107,将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪之后,该方法包括:s201,获取所述视频序列中目标帧图像的下一帧图像在时序上的时序稳定值以及所述跟踪目标的初始外观模型。
55.s202,根据所述时序稳定值以及所述上下文信息判断所述目标帧图像的下一帧图像中的跟踪目标的遮挡状态。
56.其中,可以预先设定一个时序稳定阈值,若步骤s201中获取到的时序稳定值小于该时序稳定阈值,则说明视频序列中目标帧图像的下一帧图像在时序上处于不稳定状态,此时,再结合上下文信息判断所述目标帧图像的下一帧图像中的跟踪目标的遮挡状态。
57.s203,若所述遮挡状态满足预设遮挡条件,则根据所述遮挡状态对所述初始外观
模型进行更新。
58.其中,若所述遮挡状态满足预设遮挡条件,则说明跟踪目标被遮挡了,此时,可以根据被遮挡程度对初始外观模型进行更新,从而实现自适应模型更新。
59.请参阅图7,步骤s203中,根据所述遮挡状态对所述初始外观模型进行更新的方法包括如下步骤:s2031,根据所述被遮挡位置坐标确定对应的被遮挡区域边界,其中所述被遮挡区域边界内包含有混合外观图像特征。
60.可以理解的,由于存在遮挡区域,即两个跟踪目标之间的图像特征进行了重叠,在本步骤中,称为混合外观图像特征。
61.s2032,从所述被遮挡区域边界中的所述混合外观图像特征中提取得到与所述跟踪目标对应的真实外观图像特征。
62.在本步骤中,所提取的即为所需要的图像特征。在此,称为真实外观图像特征。
63.s2033,从所述跟踪目标中割离所述被遮挡区域边界对应的区域后以得到第一碎片跟踪目标,其中所述第一碎片跟踪目标对应有第一矢量边界,其中所述第一矢量边界为与所述被遮挡区域边界相接的边界。
64.在此需要补充说明的是,第一矢量边界是将所述被遮挡区域边界对应的区域,从跟踪目标中割离之后所生成的。第一矢量边界用于根据预设的矢量信息,与后续的矢量图块进行拼接,以确保所拼接的矢量图块的正确性。
65.s2034,根据所述真实外观图像特征从预设图像数据集中提取并生成对应的拼接矢量图块,将所述拼接矢量图块与所述第一矢量边界进行拼接,以完成所述跟踪目标的初始外观模型的更新。
66.通过上述步骤,利用上下文信息能够有效判断目标当前状态,其连续帧相关响应的可靠性约束使得判断结果更加稳定,进一步提高了跟踪精度和成功率。
67.实施例三:在本实施例中,需要说明的是,上述的通用图像为多个,每个通用图像对应有一通用图像序号。为了更好地验证本发明中提出的目标跟踪方法对应的跟踪效果,请参阅图8,本发明第三实施例提出如下方法:s301,获取进行跟踪时所确定的每个所述跟踪目标对应的跟踪目标图像特征。
68.s302,依序对每个所述跟踪目标图像特征进行序列编码以分别得到跟踪目标图像特征序号。
69.s303,将所述跟踪目标图像特征序号与所述通用图像序号一一匹配,并分别调用对应的跟踪目标图像特征与对应的通用图像进行特征比对,以分别生成多个跟踪相似度值。
70.可以理解的,在本步骤中,通过将每个跟踪目标图像特征与对应的通用图像进行特征比对,根据预设的相似度计算公式,从而得到对应的跟踪相似度值,以用于后续评判整体的目标跟踪质量。
71.s304,根据多个所述跟踪相似度值生成跟踪质量曲线,以对目标跟踪质量进行评估。
72.在此需要补充说明的是,目标跟踪质量的评价包括跟踪稳定性以及跟踪准确性等
项目。
73.实施例四:请参阅图9,本发明第四实施例提出一种目标跟踪装置,所述装置包括:第一获取模块,用于获取待跟踪的视频序列中的第一帧图像;第一训练模块,用于通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得结构性特征;分类模块,用于根据所述结构性特征生成用于对跟踪目标进行分类的分类器;第二获取模块,用于获取待跟踪的视频序列中除所述第一帧图像以外的目标帧图像;输入生成模块,用于将所述视频序列中的目标帧图像输入至所述分类器中进行分类,并通过第二卷积神经网络生成特征图;第二训练模块,用于利用所述特征图以及上下文信息训练上下文滤波器以及尺度滤波器;跟踪模块,用于将训练得到的所述上下文滤波器、所述尺度滤波器与所述特征图相结合,以对所述视频序列中目标帧图像的下一帧图像中的跟踪目标进行跟踪。
74.本实施例中,所述第一训练模块具体用于:通过第一卷积神经网络对通用图像以及所述第一帧图像进行离线训练,以获得第一卷积神经网络模型;通过sigmoid分类器的分类层对所述第一卷积神经网络模型中的输出层进行替换,以获得改进后的第一卷积神经网络模型;通过改进后的第一卷积神经网络模型提取结构性特征。
75.本实施例中,所述跟踪模块具体用于:在所述上下文滤波器中,将所述目标帧图像的上下文信息与所述特征图的卷积特征相结合,以定位所述目标帧图像的下一帧图像中的跟踪目标的位置;根据所述目标帧图像的下一帧图像中的跟踪目标的位置,使用所述尺度滤波器计算所述目标帧图像的下一帧图像中的跟踪目标的尺度;根据所述目标帧图像的下一帧图像中的跟踪目标的位置和尺度进行目标跟踪。
76.本实施例中,所述第二训练模块具体用于:在所述特征图中获取目标中心,在以所述目标中心为中心点的预设范围内,提取所有图块的特征用于构造训练样本,并通过所述训练样本以得到初始上下文滤波器和初始尺度滤波器;对所述训练样本进行更新,并采用更新后的训练样本对所述初始上下文滤波器和所述初始尺度滤波器进行更新计算,经过若干次迭代更新后,获取所述上下文滤波器和所述尺度滤波器。
77.本实施例中,所述装置还包括:第三获取模块,用于获取所述视频序列中目标帧图像的下一帧图像在时序上的时序稳定值以及所述跟踪目标的初始外观模型;判断模块,用于根据所述时序稳定值以及所述上下文滤波器提供的上下文信息判断所述目标帧图像的下一帧图像中的跟踪目标的遮挡状态;
更新模块,用于若所述遮挡状态满足预设遮挡条件,则根据所述遮挡状态对所述初始外观模型进行更新。
78.根据本实施例提供的目标跟踪装置,通过第一卷积神经网络对通用图像以及第一帧图像进行离线训练,获得结构性特征,然后根据结构性特征生成用于对跟踪目标进行分类的分类器,由于离线训练的图像是种类广泛的通用图像,能够得到多样性的结构性特征,当目标发生遮挡和变化,仍然可以通过重新训练特征的参数对变化后的目标进行准确、鲁棒的表示,通过分类器对目标帧图像进行分类,并通过第二卷积神经网络生成特征图,得到了特征图和上下文信息训练上下文滤波器以及尺度滤波器,通过上下文滤波器和尺度滤波器能够实现平移估计和尺度估计,提高了对于目标尺度变化的自适应性,而结合上下文滤波器、尺度滤波器与特征图,能够对目标的位置进行准确的定位,最终提升了复杂背景下对目标的跟踪性能。
79.此外,本发明的实施例还提出一种可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述的目标跟踪方法。
80.在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通讯、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
81.计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(ram),只读存储器(rom),可擦除可编辑只读存储器(eprom或闪速存储器),光纤装置,以及便携式光盘只读存储器(cdrom)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
82.应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(pga),现场可编程门阵列(fpga)等。
83.在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、
ꢀ“
示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
84.尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本
发明的范围由权利要求及其等同物限定。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1