一种孪生网络视频目标跟踪方法及装置与流程

文档序号:23893840发布日期:2021-02-09 11:19阅读:55来源:国知局
一种孪生网络视频目标跟踪方法及装置与流程

[0001]
本发明涉及一种基于分层注意力机制的孪生网络视频目标跟踪方法,属于视频分析领域。


背景技术:

[0002]
视频目标跟踪是计算机视觉的研究热点之一,在人机交互、军事侦察、无人驾驶以及安防等诸多方面有着广泛的应用前景。
[0003]
相关滤波器由于其计算速度快,可以使目标跟踪达到实时。但相关滤波使用的手工特征,由于特征表达能力有限,在复杂环境下的目标跟踪能力有限。随着深度学习的兴起,研究人员开始将深度网络学习获得的特征应用到相关滤波中。例如,ma等通过分析vgg-19的网络特征,提出了一种分层卷积特征(hierarchical convolutional features,hcf)方法。该方法研究发现高层特征反映目标的语义信息,对目标更加鲁棒,而低层特征反映目标的细节信息,对目标的定位更加精确,后来,研究人员使用深度学习框架实现了端对端的目标跟踪,跟踪结果不断精确,但由于训练参数巨大,实时性受到影响。
[0004]
虽然在过去几十年该技术的研究取得了很大的进展,但由于在实际的跟踪环境下,目标会受到背景杂波、尺度变化以及遮挡等复杂情形的影响,因此设计一个准确、高效、鲁棒地跟踪器始终具有重要的应用价值。


技术实现要素:

[0005]
本发明的目的在于克服现有技术中的不足,提供一种基于分层注意力机制的孪生网络视频目标跟踪方法,解决在视频目标跟踪中,目标受到背景杂波等复杂环境的影响,会出现目标漂移或跟踪实时性下降,并且还要考虑目标尺度变化的技术问题。
[0006]
为达到上述目的,本发明是采用下述技术方案实现的:
[0007]
第一方面,本发明提供了一种基于分层注意力机制的孪生网络视频跟踪方法,所述方法包括以下步骤:
[0008]
步骤1、读取并预处理网络输入的模板图像和搜索图像;
[0009]
步骤2、将预处理后的模板图像和搜索图像分别输入到训练好的孪生网络模型中,经过inception模块以及卷积层的特征提取模块分别得到模板图像和搜索图像的特征图;
[0010]
所述孪生网络模型包括模板分支和搜索分支,模板分支和搜索分支特征提取模块分别提取特征,模板分支上加入注意力模块进行特征重标定;
[0011]
步骤3、通过模板分支网络第三卷积层提取低层特征,通过模板分支网络第五卷积层提取高层特征,将所述低层特征与所述高层特征分别通过注意力模块;
[0012]
步骤4、将模板分支通过注意力模块的特征与搜索分支得到的特征进行相关操作,得到各层对应的响应图,再将各层响应图采用adaboost算法进行融合得到最终响应图,进而得到目标位置;
[0013]
步骤5、在目标位置的基础上利用尺度滤波器进行尺度估计,通过设置尺度池,训
练尺度滤波器选出最优尺度大小;
[0014]
步骤6、根据最优尺度大小更新尺度滤波器;
[0015]
步骤7、判断当前帧是否是最后一帧,如果是,则结束,否则读取新一帧搜索图像并跳转步骤1。
[0016]
进一步的,所述方法的步骤还包括:构建并训练孪生网络模型;
[0017]
所述孪生网络模型的构建方法为:
[0018]
构建原孪生网络模型,包括模板分支和搜索分支,所述模板分支和搜索分支均包括第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第四卷积层、第五卷积层,将原孪生网络模型的模板分支的第一卷积层用inception模块进行替换,然后将第三、第五卷积层之后加上注意力模块,将相关滤波器加到原孪生网络模型的模板分支的第三卷积层之后;
[0019]
所述孪生网络模型的训练方法包括:用imagenet数据集进行训练,得到改进后的网络参数。
[0020]
进一步的,步骤1中,所述预处理网络输入的模板图像和搜索图像的方法包括:
[0021]
根据给定的初始目标框(μ,ν,w,h),(μ,ν)代表目标中心位置的横纵坐标,(ω,h)代表目标的宽度和高度;其中目标的位置为pos(μ,ν),目标的尺度大小为target(w,h),通过以下公式调整模板图像的大小:
[0022]
s(w+2p)
×
s(h+2p)=a
ꢀꢀꢀ
(1)
[0023][0024]
其中a是模板图像的大小,值为定值1272像素,s是尺度因子,p是上下文边界;
[0025]
先将包含上下文信息的(w+2p)
×
(h+2p)的图片扩展,然后进行尺寸调整,生成大小为127
×
127像素的模板图像;以相同的方式将搜索图像的大小设置为255
×
255像素。
[0026]
进一步的,步骤2中,所述特征图的提取方法包括以下步骤:
[0027]
为样本x的第l层的特征向量,样本x的第l层大小为m
×
n
×
d,r
m
×
n
×
d
表示大小为m
×
n
×
d的实数集,m,n和d分别表示样本x的宽度,高度和特征维度;第l层特征的相关滤波器所对应的高斯函数为g
l
,样本x的第l层特征的相关滤波器需要最小化按下面公式计算:
[0028][0029]
其中为的第d个通道,表示为第d个通道的相关滤波器,*表示为循环卷积运算,λ为正则化系参数(λ≥0);通过fft训练相关滤波器,求得第d个通道的相关滤波器为
[0030]
样本x通过第l个相关滤波器产生的相关响应图的计算公式为:
[0031]
[0032]
其中,f(
·
)表示进行傅里叶变换,f-1
表示傅里叶反变换,-表示复共轭,

表示逐像素相乘。
[0033]
进一步的,步骤3中,将特征图通过注意力模块的方法包括以下步骤:
[0034]
先将特征图通过通道注意力模块,然后再将特征图通过空间注意力模块;
[0035]
通过最大池化和平均池化聚合特征图的空间信息,形成两个不同的特征描述和分别为输入特征x的最大池化特征和平均池化特征;
[0036]
根据所述最大池化特征和平均池化特征,通过多层感知机网络生成最后的通道注意力图m
c
∈r
c
×1×1,r表示实数集,通道注意力模块可以用下式来表示:
[0037][0038]
其中,σ表示激活函数,激活函数使用relu函数,w0和w1是多层感知机的两个权重值,w0∈r
c/r
×
c
,w1∈r
c
×
c/r
,x是输入特征,是最大池化特征,是平均池化特征;
[0039]
重标定通道特征f是由通道注意力输出的特征m
c
所构成,然后再通过最大池化和平均池化操作分别得到两个不同的特征描述和然后使用一个卷积层将两者连接在一起生成最后的二维空间注意力图,用下式来表示重标定通道特征f经过空间注意力模块的计算过程:
[0040][0041]
其中,σ表示激活函数,f7×7表示一个滤波器大小为7
×
7卷积操作,表示最大池化特征,表示平均池化特征。
[0042]
进一步的,步骤4中,将通过注意力模块的特征图采用adaboost算法进行融合的方法包括以下步骤:
[0043]
计算出输出响应图与以目标位置为中心的期望高斯分布之间的误差,然后根据这个误差使用adaboost算法自适应加权响应图;
[0044]
在第t-1帧时,设目标响应图位置为(x,y),期望高斯分布为g
t-1
(x,y),则响应图相对于高斯分布的误差函数为:
[0045][0046]
其中,abs(
·
)表示绝对值操作,mean(
·
)表示平均值操作,表示第t-1帧第i层特征图位置(x,y)的响应值,g
t-1
(x,y)表示为目标位置(x,y)的期望高斯分布,然后根据这个误差函数计算出每个响应图在最后的分类器中所占的比例:
[0047]
[0048]
其中,ε
i
表示第i层特征图的误差;
[0049]
最终的响应图为:
[0050][0051]
其中,α
i
表示第i层的权重,r
i
表示第i层的响应图,r
t
表示第t帧特征图的响应值;
[0052]
所以在t帧时最终的响应图中的目标位置(x,y)为:
[0053][0054]
r
t
表示第t帧特征图的响应值。
[0055]
进一步的,步骤5中,选出最优尺度大小的方法包括以下步骤:
[0056]
对得到的目标位置区域进行一个不同尺度的采样,在预测到目标的位置的时候,以这个位置为中心,创建一个多尺度的候选区域:
[0057][0058]
其中,a是尺度因子,s为候选区域的数量,w
×
h为上一帧目标框的大小;
[0059]
并计算其hog特征o
t
(n),大小为1
×
u,给定一维高斯样本标签g
s
(n),将特征o
t
(n)转换到频域为o
t
(n),其共轭复数为g
s
(n)转换到频域表示为g
s
(n),其共轭复数为则尺度滤波器k
t
(n):
[0060][0061]
其中,λ
s
表示尺度滤波器的正则化参数;
[0062]
在随后的第t+1帧中确定目标中心点为p
t+1
(n)之后,以p
t+1
(n)为中心进行不同尺度的采样,对第n个尺度来说,其hog特征在频域中表示为v
t
(n),则可得到对应的响应图为:
[0063][0064]
其中,表示反傅里叶变换,k
t
(n)表示尺度滤波器,v
t
(n)表示频域特征;通过寻找响应图中响应值最大所对应的n,即可以求得目标的最佳尺度,即:
[0065][0066]
得到最终的目标的尺度为并且按下式更新搜索区域:
[0067][0068][0069]
其中,a是尺度因子,w
t
表示第t帧目标宽度,h
t
表示第t帧目标高度。
[0070]
进一步的,在步骤6中,根据最优尺度大小更新尺度滤波器,所述尺度滤波器的更
新公式为:
[0071][0072][0073][0074]
式中,η表示学习率,o
t
(n)表示频域特征,-表示复共轭,g
s
(n)表示频域的高斯输出,λ
s
表示尺度滤波器的正则化参数。
[0075]
第二方面,本发明提供了一种基于分层注意力机制的孪生网络视频跟踪装置,包括处理器及存储介质;所述存储介质用于存储指令;所述处理器用于根据所述指令进行操作以执行上述方法的步骤。
[0076]
第三方面,本发明提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。
[0077]
与现有技术相比,本发明所达到的有益效果:
[0078]
1、本发明基于孪生网络框架,将高层次特征与低层次特征融合起来,使用了不同层的特征进行融合,并且在提取特征的过程中,使用了注意力机制对特征图进行重标定,使用adaboost算法对目标特征图进行加权融合,提高了响应图的可靠性;
[0079]
2、本发明同时还引入了尺度估计模块,在检测出目标位置的时候,对目标进行多尺度的缩放;在对目标进行尺度缩放的过程中,本发明使用了基于区域的快速hog特征提取算法对提取过程进行了加速,使孪生网络能够快速的提取hog特征,从而加速跟踪的速度。所提出的算法既能够精确跟踪目标,又能有效地提高跟踪速度。
[0080]
3、本发明还使用了inception模块,一方面增加了网络的宽度以及孪生网络对尺度的适应性,另一方面还减少了参数,提高了网络训练的速度。
附图说明
[0081]
图1为本发明的算法流程图;
[0082]
图2为本发明的网络结构图;
[0083]
图3为inception模块图;
[0084]
图4为注意力模块图;
[0085]
图5为跟踪性能对比图;
[0086]
图6为部分跟踪结果图。
具体实施方式
[0087]
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
[0088]
实施例一:
[0089]
本实施例提供一种基于分层注意力机制的孪生网络视频目标跟踪方法,本方法包括以下步骤:
[0090]
步骤1、读取并预处理网络输入的模板图像和搜索图像;
[0091]
步骤2、将预处理后的模板图像和搜索图像分别输入到训练好的孪生网络模型中,经过inception模块以及卷积层的特征提取模块分别得到模板图像和搜索图像的特征图;
[0092]
所述孪生网络模型分为模板分支和搜索分支,模板分支和搜索分支通过改进后的特征提取模块分别提取特征,模板分支上加入注意力模块进行特征重标定;
[0093]
步骤3、将模板分支网络第三层提取的低层特征与第五层提取的高层特征分别通过注意力模块;
[0094]
步骤4、将模板分支通过注意力模块的特征与搜索分支得到的特征进行相关操作,得到各层对应的响应图,再将各层响应图采用adaboost算法进行融合得到最终响应图,进而得到目标位置;
[0095]
步骤5、在目标位置的基础上利用尺度滤波器进行尺度估计,通过设置尺度池,训练尺度滤波器选出最优尺度大小;
[0096]
步骤6、根据最优尺度大小更新尺度滤波器;
[0097]
步骤7、判断当前帧是否是最后一帧,如果是,则结束,否则读取新一帧搜索图像并跳转步骤1。
[0098]
优选地,所述方法的步骤还包括:构建并训练孪生网络模型;
[0099]
孪生网络分为模板分支和搜索分支,模板分支和搜索分支通过改进后的特征提取模块分别提取特征,模板分支上加入注意力模块进行特征重标定,得到目标位置后通过尺度估计模块得到最佳尺度;
[0100]
所述孪生网络模型的构建方法为:
[0101]
构建原孪生网络模型,包括模板分支和搜索分支,模板分支和搜索分支均包括第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第四卷积层、第五卷积层,将原孪生网络的模板分支的第一卷积层用inception模块进行替换,然后将第三、第五卷积层之后加上注意力模块,将相关滤波器加到网络的第三层之后;
[0102]
原始孪生网络用的网络类似于alexnet,固定的,包括卷积层、池化层、卷积层、池化层、卷积层、卷积层、卷积层。
[0103]
所述孪生网络模型的训练方法包括:用imagenet数据集进行训练,得到改进后的网络参数。
[0104]
具体的,步骤1中,所述预处理网络输入的模板图像和搜索图像的方法包括:
[0105]
根据给定的初始目标框(μ,ν,w,h),(μ,ν)代表目标中心位置的横纵坐标,(ω,h)代表目标的宽度和高度。其中目标的位置为pos(μ,ν),目标的尺度大小为target(w,h),通过以下公式调整模板图像的大小:
[0106]
s(w+2p)
×
s(h+2p)=a
ꢀꢀꢀ
(1)
[0107][0108]
其中a是模板图像的大小,值为定值1272像素,s是尺度因子,p是上下文边界;
[0109]
先将包含上下文信息的(w+2p)
×
(h+2p)的图片扩展,然后进行尺寸调整,生成大小为127
×
127像素的模板图像;以相同的方式将搜索图像的大小设置为255
×
255像素。
[0110]
具体的,步骤2中,所述特征图的提取方法包括以下步骤:
[0111]
为样本x的第l层的特征向量,样本x的第l层大小为m
×
n
×
d,r
m
×
n
×
d
表示大小为m
×
n
×
d的实数集,m,n和d分别表示样本x的宽度,高度和特征维度;第l层特征的相关滤波器所对应的高斯函数为g
l
,样本x的第l层特征的相关滤波器需要最小化按下面公式计算:
[0112][0113]
其中为的第d个通道,表示为第d个通道的相关滤波器,*表示为循环卷积运算,λ为正则化系参数(λ≥0);通过fft训练相关滤波器,求得第d个通道的相关滤波器为
[0114]
样本x通过第l个相关滤波器产生的相关响应图的计算公式为:
[0115][0116]
其中,f(
·
)表示进行傅里叶变换,f-1
表示傅里叶反变换,-表示复共轭,

.表示逐像素相乘。
[0117]
具体的,步骤3中,将特征图通过注意力模块的方法包括以下步骤:
[0118]
先将特征图通过通道注意力模块,然后再将特征图通过空间注意力模块;
[0119]
通过最大池化和平均池化聚合特征图的空间信息,形成两个不同的特征描述和分别为输入特征x的最大池化特征和平均池化特征;
[0120]
根据所述最大池化特征和平均池化特征,通过多层感知机网络生成最后的通道注意力图m
c
∈r
c
×1×1,通道注意力模块可以用下式来表示:
[0121][0122]
其中,σ表示激活函数,激活函数使用relu函数,w0和w1是多层感知机的两个权重值,w0∈r
c/r
×
c
,w1∈r
c
×
c/r
,x是输入特征,是最大池化特征,是平均池化特征;
[0123]
与通道注意力不同,空间注意力主要关注位置信息。重标定通道特征f是由通道注意力输出的特征m
c
所构成,然后再通过最大池化和平均池化操作分别得到两个不同的特征描述和然后使用一个卷积层将两者连接在一起生成最后的二维空间注意力图,用下式来表示重标定通道特征f经过空间注意力模块m
s
(f)的计算过程:
[0124][0125]
其中,σ表示激活函数,f7×7表示一个滤波器大小为7
×
7卷积操作,表示最大池化特征,表示平均池化特征。
[0126]
具体的,步骤4中,将通过注意力模块的特征图采用adaboost算法进行融合的方法包括以下步骤:
[0127]
计算出输出响应图与以目标位置为中心的期望高斯分布之间的误差,然后根据这个误差使用adaboost算法自适应加权响应图;
[0128]
在第t-1帧时,设目标响应图位置为(x,y),期望高斯分布为g
t-1
(x,y),则响应图相对于高斯分布的误差函数为:
[0129][0130]
其中,abs(
·
)表示绝对值操作,mean(
·
)表示平均值操作,表示第t-1帧第i层特征图位置(x,y)的响应值,g
t-1
(x,y)表示为目标位置(x,y)的期望高斯分布,然后根据这个误差函数计算出每个响应图在最后的分类器中所占的比例:
[0131][0132]
其中,ε
i
表示第i层特征图的误差;
[0133]
最终的响应图为:
[0134][0135]
其中,α
i
表示第i层的权重,r
i
表示第i层的响应图,r
t
表示第t帧特征图的响应值;
[0136]
所以在t帧时最终的响应图中的目标位置(x,y)为:
[0137][0138]
r
t
表示第t帧特征图的响应值。
[0139]
具体的,步骤5中,选出最优尺度大小的方法包括以下步骤:
[0140]
对得到的目标位置区域进行一个不同尺度的采样,在预测到目标的位置的时候,以这个位置为中心,创建一个多尺度的候选区域:
[0141][0142]
其中,a是尺度因子,s为候选区域的数量,w
×
h为上一帧目标框的大小;
[0143]
并计算其hog特征o
t
(n),大小为1
×
u,给定一维高斯样本标签g
s
(n),将特征o
t
(n)转换到频域为o
t
(n),其共轭复数为g
s
(n)转换到频域表示为g
s
(n),其共轭复数为则尺度滤波器k
t
(n):
[0144][0145]
其中,λ
s
表示尺度滤波器的正则化参数;
[0146]
在随后的第t+1帧中确定目标中心点为p
t+1
(n)之后,以p
t+1
(n)为中心进行不同尺
度的采样,对第n个尺度来说,其hog特征在频域中表示为v
t
(n),则可得到对应的响应图为:
[0147][0148]
其中,表示反傅里叶变换,k
t
(n)表示尺度滤波器,v
t
(n)表示频域特征。
[0149]
通过寻找响应图中响应值最大所对应的n,即可以求得目标的最佳尺度,即:
[0150][0151]
得到最终的目标的尺度为并且按下式更新搜索区域:
[0152][0153][0154]
其中,a是尺度因子,w
t
表示第t帧目标宽度,h
t
表示第t帧目标高度。
[0155]
具体的,在步骤6中,根据最优尺度大小更新尺度滤波器,所述尺度滤波器的更新公式为:
[0156][0157][0158][0159]
式中,η表示学习率,o
t
(n)表示频域特征,-表示复共轭,g
s
(n)表示频域的高斯输出,λ
s
表示尺度滤波器的正则化参数。
[0160]
需要说明的是,本申请中r表示实数集,其右上角的字符代表其大小,如r
c
×
l
×
l
表示大小为c
×1×
1的实数集,c为特征图的通道数;r
c/r
×
c
为大小为c/r
×
c的实数集,c为特征图的通道数,r是缩放因子;r1×
h
×
w
表示大小为1
×
h
×
w的实数集,h和w代表目标的宽度和高度。
[0161]
实施例二:
[0162]
本实施例提供一种基于分层注意力机制的孪生网络视频目标跟踪方法,为使本发明的目的、实现方案和优点更为清晰,下面以公开测试集otb benchmark中的序列singer1为例,对本发明的具体实施结合附图说明作进一步的详细描述,具体阐述如下:
[0163]
本发明提出了一种基于分层注意力机制的孪生网络跟踪方法。本方法将跟踪过程分成了目标位置估计以及目标尺度估计两个部分。使用卷积神经网络进行特征提取,将第三层的特征与第五层的特征进行加权融合,得到跟踪结果。然后利用尺度滤波器进行尺度估计,通过设置尺度池,训练尺度滤波器选出结果最好的那个尺度作为目标的最终尺度大小。
[0164]
该方法具有以下步骤:
[0165]
步骤1、调整孪生网络结构并进行训练:
[0166]
结构调整:将孪生网络第一层的卷积层用inception模块进行替换,如图3所示,然后将第三、第五卷积层之后加上注意力模块,如图4所示,将相关滤波器加到网络的第三层
之后,改进后的网络结构图如图2所示。改进后的网络模型用imagenet数据集进行训练,得到改进后的网络参数。
[0167]
训练过程:使用随机梯度下降法进行优化逻辑回归目标,卷积层初始学习率设置为0.001,训练过程包括50个迭代,每个迭代包括5000个样本对,批量大小设置为8。相关滤波器的正则化系数大小设置为0.1,相关滤波所用高斯函数的标准差设置为4.0。
[0168]
步骤2、在singer1的第一帧模板图像中,给定初始目标框为(48,98,40,142),其中初始目标中心为pos(48,98),目标的尺度大小target为40
×
142,目标中心的搜索区域window_sr为40
×
142。读取网络输入的模板图像以及搜索图像,根据给定的初始目标框(μ,ν,w,h),其中目标的位置为pos(μ,ν),目标的尺度大小为target(w,h)。然后通过以下公式可以生成标准模板图像:s(w+2p)
×
s(h+2p)=a,其中a为1272,s是尺度因子,对图片扩展再进行resize,生成127
×
127的模板图像,以相同的方式生成大小为255
×
255的搜索图像。
[0169]
步骤3、将预处理后的模板图像和搜索图像分别输入到网络中,经过inception模块以及卷积层的特征提取模块得到特征值。设样本x的第l层大小为m
×
n
×
d的特征向量为m,n和d分别表示宽度,高度和特征维度。第l层特征的相关滤波器所对应的高斯函数为g
l
,那么第l层特征的相关滤波器需要最小化问题:
[0170][0171]
其中为的第d个通道,表示为第d个通道的相关滤波器,*表示为循环卷积运算,λ为正则化系参数(λ≥0)。式中的问题可以转换到频域中,通过fft训练相关滤波器,可以求得第d个通道的相关滤波器为
[0172]
样本x通过第l个相关滤波器产生的相关响应图为:
[0173][0174]
其中,f(
·
)表示进行傅里叶变换,f-1
表示傅里叶反变换,-表示复共轭,

表示逐像素相乘。将标准模板图像与搜索图像分别输入到网络中,标准模板图像经过inception模块以及卷积层的特征提取,得到特征h1,将特征h1输入到相关滤波器,代入式得到对应的相关滤波器w
h
,根据w
h
计算得到响应图f
h
。标准搜索图像经过相同的结构得到特征h2和响应图f
h2

[0175]
步骤4、将低层的特征以及高层的特征通过注意力模块。先是通过通道注意力模块,然后再通过空间注意力模块。输入特征x通过最大池化和平均池化这两个操作来聚合特征图的空间信息,形成两个不同的特征描述和分别为最大池化特征和平均池化特征。这两个特征通过多层感知机网络生成最后的通道注意力图m
c
∈r
c
×1×1,r表示大小为c*1*1的实数集,c为特征图的通道数。通道注意力模块可以用式(22)来表示:
[0176][0177]
其中,σ表示激活函数,激活函数使用relu函数,w0和w1是多层感知机的两个权重值,w0∈r
c/r
×
c
,w1∈r
c
×
c/r
,r
c/r
×
c
为大小为c/r
×
c的实数集,c为特征图的通道数,r是一个缩放因子。
[0178]
重标定通道特征f是由通道注意力输出的特征m
c
所构成,然后再通过最大池化和平均池化操作分别得到两个不同的特征描述和然后使用一个卷积层将两者连接在一起生成最后的二维空间注意力图。可以用公式(23)来表示这一计算过程:
[0179][0180]
其中,σ表示激活函数,f7×7表示一个滤波器大小为7
×
7卷积操作。
[0181]
将h1特征输入到注意力模块,也就是代入式(3)和式(4)得到重标定特征f
l
,响应图的特征f
h
输入到注意力模块,然后代入式(3)和式(4)得到的特征为f
h'
,将搜索分支上对应层的特征h2及f
h2
与重标定之后的特征进行卷积,得到低层响应图r
l
和高层响应图r
h

[0182]
步骤5、将通过注意力模块的特征图采用adaboost算法进行融合。用输出响应图与以目标位置为中心的期望高斯分布计算出它们之间的误差,然后根据这个误差使用adaboost算法自适应加权响应图。在第t-1帧时,设目标响应图位置为(x,y),期望高斯分布为g
t-1
(x,y),则响应图相对于高斯分布的误差函数为:
[0183][0184]
其中,abs(
·
)表示绝对值操作,mean(
·
)表示平均值操作,表示第t-1帧第i层特征图位置(x,y)的响应值,g
t-1
(x,y)表示为目标位置(x,y)的期望高斯分布,然后根据式(25)计算出每个响应图在最后的分类器中所占的比例:
[0185][0186]
最终的响应图为:
[0187][0188]
所以在t帧时最终的响应图中的目标位置(x,y)为:
[0189][0190]
步骤6、确定第t帧的目标中心位置为q
t
之后,用p
t
×
r
t
表示当前目标的大小,w
t
×
h
t
表示当前搜索区域大小,s表示尺度滤波器的大小,设置为33,a表示尺度因子,设置为1.02,n表示尺度级别,以q
t
为中心,创建一个多尺度的候选区域:
[0191][0192]
并计算其hog特征o
t
(n),大小为1
×
u,给定一维高斯样本标签g
s
(n),将特征o
t
(n)转换到频域为o
t
(n),其共轭复数为g
s
(n)转换到频域表示为g
s
(n),其共轭复数为则尺度滤波器k
t
(n):
[0193][0194]
其中,λ
s
表示尺度滤波器的正则化参数,在随后的第t+1帧中确定目标中心点为p
t+1
(n)之后,以p
t+1
(n)为中心进行不同尺度的采样,对第n个尺度来说,其hog特征在频域中表示为v
t
(n),则可得到对应的响应图为:
[0195][0196]
其中,表示反傅里叶变换。
[0197]
通过寻找响应图中响应值最大所对应的n,即可以求得目标的最佳尺度,即:
[0198][0199]
可以得到最终的目标的尺度为并且搜索区域更新为
[0200]
步骤7、尺度滤波器更新
[0201]
假设上式的分子和分母分别表示为c
t
和d
t
,那么尺度滤波器的更新公式为:
[0202][0203][0204][0205]
其中,η和η
s
分别表示位置滤波器和尺度滤波器的学习率。
[0206]
步骤8、判断当前帧是否是最后一帧,如果是,则结束,否则返回步骤2,读取新一帧搜索图像重新生成标准搜索图像继续进行目标跟踪。
[0207]
通过计算目标跟踪在不同层的特征组合下的成功率和准确率,我们发现第三层和第五层的特征组合可以得到比较好的成功率和准确率,本发明采用的是第三层和第五层的特征组合。
[0208]
为验证本发明方法的效果,进行了以下验证实验:
[0209]
本发明采用otb(online tracking benchmark)平台上的50个公认的、已标注的视频序列来进行测试,它们模拟真实场景中的各种情况,包含光照变化、尺度变换、部分或严重遮挡、形变等。表1为本发明实验的硬件及软件仿真环境。
[0210]
表1实验的硬件及软件仿真环境
[0211]
cpuintel(r)core(tm)i5-8265u cpu@3.4ghz内存8.00gb操作系统windows 10开发环境matlab r2017a、visual studio 2015编程语言matlab、c++
[0212]
在otb测试平台上,主要有两种评价标准:精确度(precision plot)和成功率(success plot)。
[0213]
在跟踪过程中,精确度是评价一个算法跟踪器是否能够准确的得出后续帧的目标位置的关键,算法跟踪器得出的目标位置一般称为预测值,人工标注的目标位置称之为真实值(groundtruth),准确度就是通过计算预测值偏离真实值的偏差,一般使用欧式距离来计算预测值和真实值之间的距离。如果这个距离小于给定的阈值,跟踪就越准确,相反,跟踪就越不准确。用精度曲线反映预测值与真实值的误差在给定阈值距离内占总帧数的百分比,作为这个算法的精确度。一般这个阈值设置为20像素,不同的阈值得到的精确度是不一样的,将所有的阈值情况的精度绘制出来就变成了精确度图。
[0214]
成功率是目标跟踪器得到的候选目标框与人工标注的真实区域之间的重叠精度来测量。将目标跟踪器得到的候选区域标注为r
a
,人工标注的目标真实区域标注为r
b
,那么它们的重叠精度为:
[0215][0216]
其中,r
a
∩r
b
表示区域r
a
与区域r
b
的重叠区域,r
a
∪r
b
表示区域r
a
与区域r
b
的联合区域。这个重叠精度得分越高,表示跟踪越准确。一般将重叠精度的阈值设置为0.5,不同阈值得到的重叠精度得分也是不一样的,将所有的阈值情况的重叠精度绘制出来就变成了成功率图。
[0217]
综上所述,精确度和成功率越高,目标跟踪的性能越好。而评价跟踪效率的标准采用每秒的处理帧数(帧/秒),算法每秒处理的帧数越多,说明跟踪实时性越好。
[0218]
如图5所示,本发明在20像素的阈值下仍然有着82.6%的准确度,与eco、siamfc、ssc和kcf相比,本发明分别提高了0.9%,4.9%,8.2%和10.6%。在图(b)中,我们将重叠精度的阈值设置为0.5,本文的成功率达到了63.3%。相比于eco、siamfc、ssc和kcf这几个算法,本发明的成功率分别提高了1.1%,4.7%、9.6%和11.9%。在背景杂波的条件下,本发明仍然保持着比较高的准确度和精确度。图(c)中,本发明在背景杂波条件下的准确度相比于eco、siamfc、ssc和kcf分别提高了2.3%,9.4%,12.2%和20.3%。图(d)中,本发明在背景杂波的条件下的成功率对比于eco、siamfc、ssc和kcf分别提高了1.9%,9.9%,10.6%和16.6%。
[0219]
图6为本发明部分跟踪效果图,红色框为本发明的跟踪框,而蓝色为原始samf算法的跟踪框,绿色为siamfc算法的跟踪框,黑色为kcf算法的跟踪框,玫红色为dsst算法的跟踪框。由图可知,三个视频序列都存在明显的尺度变化,在carscale序列中,目标逐渐靠近摄像头,尺度越来越大,第244帧,hcf、ct、stuck和kcf都只跟踪到目标的一小部分,本文算
法能较好的实现目标尺度自适应。
[0220]
本发明提出了一种基于分层注意力机制的孪生网络跟踪算法。使用了不同层的特征进行融合,并且在提取特征的过程中,使用了注意力机制对特征图进行重标定,使用adaboost算法对目标特征图进行加权融合,提高了响应图的可靠性。同时还引入了尺度估计模块,在检测出目标位置的时候,对目标进行多尺度的缩放。在对目标进行尺度缩放的过程中,本发明使用了基于区域的快速hog特征提取算法对提取过程进行了加速,使孪生网络能够快速的提取hog特征,从而加速跟踪的速度。所提出的算法既能够精确跟踪目标,又能有效地提高跟踪速度。
[0221]
实施例三:
[0222]
本发明实施例还提供了一种基于分层注意力机制的孪生网络视频跟踪装置,包括处理器及存储介质;
[0223]
所述存储介质用于存储指令;
[0224]
所述处理器用于根据所述指令进行操作以执行实施例一所述方法的步骤。
[0225]
实施例四:
[0226]
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实施例一所述方法的步骤。
[0227]
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0228]
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0229]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0230]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0231]
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1