本发明涉及计算机视觉领域,更具体而言,本发明涉及一种基于稀疏表示和先验概率相结合的目标跟踪算法。
背景技术:
目标跟踪是当前计算机视觉研究领域的热点研究方向之一,并且有着广泛的实际应用,比如自动监控、智能导航、人机交互、以及军事防御等。尽管在线目标跟踪经过几十年的发展已经有了很大的进步,但是仍然有很多问题没有彻底解决,比如因光照、遮挡、旋转和姿态变化引起的目标外观变化使得目标跟踪受到了极大的挑战[1-3]。
目标跟踪算法一般可分为基于判别模型的跟踪算法和基于生成模型的跟踪算法。其中基于判别模型的跟踪算法是将跟踪问题转化为一个分类问题,即跟踪的目的是将图像中目标和背景分开,如何设计鲁棒的分类器是这类算法的关键。Avidan[4]提出一种基于支持向量机的单目标跟踪算法,该算法合理的将分类器机制应用到目标跟踪上,但是正负样本直接从当前跟踪结果中提取,容易累积误差,不能很好的解决目标遮挡问题。2011年,Babenkod等学者[5]提出了多实例学习跟踪算法(MIL,multiple instances learning tracking),该算法的训练样本是通过“包”的形式给出的,正样本包中至少包含一个正样本实例,负样本包中全部是负样本实例。通过多实例学习的算法判定样本的类别,该算法很好的解决了样本更新问题。
基于生成模型的跟踪算法是通过学习到的外观模型来对目标进行表示,并寻找具备最小重构误差的图像块作为所要跟踪的目标。2008年,Ross等人[6]提出了增量子空间跟踪算法(IVT,incremental learning for robust visual tracking),利用主成分分析(PCA,principal component analysis)子空间对目标线性表示。该方法利用增量学习的方式对子空间进行更新,特别是主成分分析中特征基和均值的更新,可以实时有效的适应目标外观的变化,而且每次更新是在原来基础上改变部分特征基和均值。该算法较好的解决了光照变化、姿态变化等带来的跟踪漂移问题,但对目标遮挡和旋转比较敏感。2009年,Mei等人[7]首次将稀疏跟踪引入到目标跟踪领域,提出了基于L1最小化跟踪方法(visual tracking using L1 minimization),该方法将目标模板和琐碎模板作为字典来线性表示每一个候选目标(粒子),当前帧的候选目标由前一帧的跟踪结果按高斯分布产生。由于琐碎模板描述目标遮挡部分,这样就比较好的解决了目标部分遮挡的问题,但是每一个候选目标都要求解一次L1最小化问题,因此基于内点法的L1跟踪方法无法满足实时性。随后很多学者开始探索基于稀疏表示的目标跟踪,其中Chen等学者[8]利用多个PCA子空间代替灰度像素作为目标模板,该算法虽然能够更好的反映目标外观的变化,但是算法的时间复杂度仍然高。
2011年,Mei等人又提出了最小误差边界策略[9],由于L2正则化的重构误差是L1正则化重构误差的下确界,Mei等人使用L2正则化对L1跟踪器中的采样粒子进行一次预选择,减少L1正则化的次数,以此降低计算量,提高算法的实时性。在文献[10]中,Liu提出了一种通过降低外观模板或候选目标的特征向量维数方法,来降低计算复杂度,同样提高了运算速度。Li等人[11]利用L0最小化来快速求解稀疏表示,并且使用基于块状的遮挡模板,以此来降低字典的尺寸,最终提高了跟踪速度。2012年,Bao等人[12]利用加速邻近梯度法[13]求解L1跟踪方法,即L1-APG(L1 tracker using accelerated proximal gradient approach),实现快速的目标跟踪,因为并没有改变正则化模型,所以跟踪效果与L1跟踪器相当。
观察表明,在基于L1的跟踪器中,琐碎模板均包含在外观模板中,虽然其主要用于线性表示目标遮挡部分和图像噪声,但是琐碎模板仍然会线性表示目标的一部分,因此会降低跟踪结果的精度。此外,在跟踪过程中,早期的跟踪结果相对比较精确,我们应该更多保留这些跟踪目标模板。例如,Xu等人[14]采用一种更新概率序列来平衡新旧模板,但该方法依然会产生跟踪误差。
综上所述,虽然基于稀疏思想的目标跟踪表现出了良好的跟踪效果,但仍然无法彻底解决噪声、旋转、遮挡、运动模糊、光照和姿态变化等复杂背景下的目标跟踪。
参考文献:
[1]Tian X L,Jiao L,Zhao F,et al.Tracking with spatial constrained coding[J].Iet Computer Vision,2015,9(1):63-74.[DOI:10.1049/iet-cvi.2014.0017]
[2]Qi M B,YangY,Yang Y F,etal.Real-time object tracking based on L2-norm minimization[J].Journal of Image and Graphics,2014,19(1).[齐美彬,杨勋,杨艳芳,等.基于L2范数最小化的实时目标跟踪[J].中国图像图形学报,2014,19(1).][DOI:10.11834/jig.20140105]
[3]Zhang T,Liu S,Xu C,et al.Structural Sparse Tracking[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR).IEEE Computer Society,2015:150-158.[DOI:10.1109/CVPR.2015.7298610]
[4]Avidan S.Ensemble tracking.[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2007,29(2):261-271.[DOI:10.1109/TPAMI.2007.35]
[5]Babenko B,Yang M H,Belongie S.Visual tracking with online Multiple Instance Learning[J].IEEE Trans Pattern Anal Mach Intell,2009:983-990.[DOI:10.1109/CVPR.2009.5206737]
[6]Ross D A,Lim J,Lin R S,et al.Incremental Learning for Robust Visual Tracking[J].Advances in Neural Information Processing Systems,2008,77(1-3):125-141.[DOI:10.1007/s11263-007-0075-7]
[7]Mei X,Ling H.Robust visual tracking usingminimization[C]//Computer Vision,2009 IEEE 12th International Conference on.IEEE,2009:1436-1443.[DOI:10.1109/CVPR.2009.5206737]
[8]Chen F,Wang Q,Wang S,et al.Object tracking via appearance modeling and sparse representation[J].Image&Vision Computing,2011,29(11):787-796.[DOI:10.1016/j.imavis.2011.08.006]
[9]Mei X,Ling H,Wu Y,et al.Minimum error bounded efficienttracker with occlusion detection[C]//Computer Vision and Pattern Recognition(CVPR),2011 IEEE Conference on.IEEE,2011:1257-1264.[DOI:10.1109/CVPR.2011.5995421]
[10]Liu B,Yang L,Huang J,et al.Robust and fast collaborative tracking with two stage sparse optimization[C]//Proceedings of the 11th European conference on Computer vision:Part IV.Springer-Verlag,2010:624-637.[DOI:10.1007/978-3-642-15561-1_45]
[11]Li H,Shen C,Shi Q.Real-time visual tracking using compressive sensing[C]//IEEE Conference on Computer Vision&Pattern Recognition.IEEE Computer Society,2011:1305-1312.[DOI:10.1109/CVPR.2011.5995483]
[12]Ji H.Realtime robust L1 tracker using accelerated proximal gradient approach[C]//Computer Vision and Pattern Recognition(CVPR),2012 IEEE Conference on.IEEE,2012:1830-1837.[DOI:10.1109/CVPR.2012.6247881]
[13]Tseng P.On accelerated proximal gradient methods forconvex-concave optimization[J].SIAM J on Opti,2008,1120-11128.
[14]Jia X,Lu H,Yang M H.Visual tracking via adaptive structural local sparse appearance model[C]//2012 IEEE Conference on Computer Vision and Pattern Recognition.IEEE Computer Society,2012:1822-1829.[DOI:10.1109/CVPR.2012.6247880]
[15]Wu Y,Lim J,Yang M.Object Tracking Benchmark[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2015,37(9):1834-1848.[DOI:10.1109/TPAMI.2014.2388226]
[16]Kwon J,Lee K M.Visual Tracking Decomposition[C]//IEEE Conference on Computer Vision&Pattern Recognition.2010:1269-1276.[DOI:10.1109/CVPR.2010.5539821]
[17]Oron S,Bar-Hillel A,Dan L,et al.Locally OrderlessTracking[J].International Journal of Computer Vision,2012,111(2):1940-1947.[DOI:10.1007/s11263-014-0740-6]
[18]Everingham M,Gool L V,Williams C K I,et al.The Pascal Visual Object Classes(VOC)Challenge[J].International Journal of Computer Vision,2010,88(2):303-338.[DOI:10.1007/s11263-009-0275-4]
技术实现要素:
针对遮挡、旋转、姿态变化和运动模糊问题,本发明提出一种基于稀疏表示和先验概率相结合的目标跟踪算法。为了平衡新旧模板并反映关键模板的作用,本发明提出一种新的正则化模型和模板更新策略。首先基于累积选择的方法来选取高概率模板,利用模板不同的先验概率进行模板更新,同时将模板的重要性引入到正则化模型中来进一步反映关键模板对跟踪结果的重要性。此外,为了提高算法的实时性,我们使用加速近端梯度法求解上述L1正则化模型。
根据本发明的第一方面,提供了一种基于稀疏表示和先验概率相结合的目标跟踪算法,其特征在于,包括下列步骤:
构建下列正则化模型:
其中A=[T;I]是外观模板,a=[aT;aI]是目标模板和琐碎模板对应的系数,参数λ平衡L1正则化和重构误差之间的重要性,yti是任意候选目标,ut则是控制琐碎模板能量的参数,通过遮挡检测来确定,当检测到遮挡时,ut=0;否则ut为预设常数。
优选地,w的取值反映模板的归一化权重TW,且本发明对模板权重的归一化进行如下处理,首先,采用下式计算每个模板的归一化权重:
如果存在某个归一化权重NTW(i)的值超过0.3,则将其进行幅度消减为0.3,再进行归一化,如果重复,直至没有所有归一化权重值都在0.3范围内。然后,利用下式计算w,
获得w后,将转化为下式无约束最优化问题来求解系数a,
其中1R(a)定义为,
优选地,为了快速求解式将其转化为如下无约束最优化问题:
min F(a)+G(a)
其中,
上式中F(a)是满足利普希茨连续梯度条件的可微凸函数,G(a)是连续的凸函数。
优选地,令输入为候选目标图像块y和模板集构成的字典A,输出为候选目标在字典A上的稀疏表达系数a,则所述式的求解步骤包括:
步骤1.初始化a0=a-1=0,t0=t-1=1;
步骤2.k=0
步骤3.
步骤4.
步骤5.
步骤6.ak+1|T=max(0,gk+1|T);
步骤7.ak+1|I=Υλ/L(gk+1|T);
步骤8.
步骤9.k=k+1;
如果a收敛,迭代结束,否则转到步骤3,其中γ是软阈值操作算子,其计算式为:Υλ(x)=sign(x)max(|x|-λ,0)。
优选地,对于模板的更新策略步骤如下:
1):在模板集中选取与跟踪结果最相似的模板i,此模板为当前优秀模板,对应外观模板权值增加1,即
NTW(i)=NTW(i)+1
2):计算跟踪结果与最相似的模板的相似度,评价标准为向量之间的角度:
g=angle(y,t)
其中t为稀疏系数a中最大分量对应的模板;
3):当g小于某阈值时,说明跟踪结果与外观模板相似,不需要进行外观模板更新;当g大于某阈值时,说明跟踪结果与外观模板集有偏差,需要进行模板的更新,选择除去优秀模板外的最不重要的模板进行更新:
首先,令avg(NTW)表示所有模板归一化权重的平均值,对于模板集中的每个目标模板Ti,如果其归一化权重NTW(i)>1.5*avg(NTW),则令该模板对应的系数表达系数ai=1。
其次,令利用下式对模板Tk进行更新:
tk=αy+(1-α)avg(T),α∈(0.5,1)
其中n为模板个数,a为稀疏求解系数,T为外观模板集。
优选地,所述算法包括以下评估步骤:
选用中心点误差作为衡量标准,其计算公式为
其中xt和yt代表不同跟踪算法的跟踪结果在两个坐标轴上的值,xg和xg则是代表真实位置对应的坐标值,依据PASCALVOC检测标准,采用重叠率值,即其中Rt是算法在某帧的跟踪框覆盖的区域,Rg是测试序列提供的真实位置所在区域,如果重叠率值大于0.5,则视为该帧跟踪成功,否则认为跟踪失败,跟踪成功的帧数除以总帧数即为跟踪成功率。
根据在下文中所描述的附图和实施例,本发明的这些和其它方面将是清楚明白的,并且将参考在下文中所描述的实施例而被阐明。
附图说明
将参考附图中所说明的示范性的实施例而在下文中更详细地解释本发明。
图1示出了本发明的整体跟踪流程图。
图2(a)到2(e)示出了针对不同视频序列的不同算法的跟踪结果。
图3(a)到3(d)示出了针对不同视频序列的不同算法的跟踪误差曲线。
具体实施方式
1.基于L1正则化的目标跟踪算法
基于L1正则化的目标跟踪方法最早由Mei等人[7]提出,下面先简要介绍基于粒子滤波,然后给出L1跟踪算法框架。
1.1粒子滤波框架
粒子滤波本质上是通过非参数化的蒙特卡罗模拟来实现贝叶斯滤波,即利用一组带有权重的随机样本近似描述系统状态的后验概率密度。给出直到t-1时刻的观测集z1:t-1={z1,z2,...,zt-1},目标在t时刻的最佳状态可由最大近似后验概率得出zt*=argminp(xti|z1:t)。其中xti表示时刻t的第i个采样粒子的系统状态,后验概率p(xti|z1:t)可由贝叶斯理论递归求得,
p(xt|z1:t)∝p(zt|xt)∫p(xt|xt-1)p(xt-1|z1:t-1)dxt-1 (1)
其中p(xt|xt-1)是状态转移概率用来描述动态模型,p(xt-1|z1:t-1)是上一时刻的后验概率,p(zt|xt)是根据当前观测模型计算的当前观测似然度。
1.2稀疏表示理论
稀疏表示被广泛的应用各个领域,为了得到精确的目标位置,我们利用一个过完备字典对目标区域进行稀疏表示,并用稀疏系数表示目标。稀疏表示模型旨在计算候选目标的可能性,已知t时刻的外观模板集Tt={Tt1,Tt2,...,Ttn}和候选目标集Yt={yt1,yt2,...,ytn},求取任意候选目标yti的稀疏系数的稀疏模型可表示为,
其中,I是琐碎模板(即单位矩阵),a=[aTi,dIi]即为求解的稀疏系数,考虑到非负约束,可以通过求解如下的L1最小化问题来得到任意候选目标yti的稀疏解:
式中,过完备字典A=[T,I]既考虑到了正常的目标模板,也考虑了存在部分遮挡和噪声的情况,参数λ平衡L1正则化和重构误差之间的重要性,求解结果就是在重构误差小且稀疏双重约束下的稀疏系数。
传统的用内点法解决上式问题,速度较慢,为此,文献[7]对粒子进行一次预处理,在粒子滤波的重采样阶段,仅采样权重较大的粒子。事实上该算法的提出基于下式的理论:
其中
对于任何一个采样粒子,它的观测似然概率都存在上界:
如果则对应的候选目标将不会放在重要粒子集中,换言之,将不会对此采样粒子进行观测概率计算,因此该方法大大减少了需要计算L1正则化的粒子个数,提高了算法的实时性。
2.改进的稀疏跟踪算法
图1示出了本发明算法的整体跟踪流程图。
2.1L1正则化模型
外观模型刻画目标的能力在目标跟踪中起关键作用,外观模板包括目标模板和琐碎模板,目标模板在跟踪过程中动态的表示目标,而遮挡和噪声由琐碎模板表示。然而琐碎模板可能会表示目标的部分,这样就造成了对候选目标线性表示的不准确性。比如当候选目标属于背景区域或者被遮挡,目标模板和琐碎模板对候选目标进行线性表示时,系数不稀疏,其主要是因为琐碎模板对应的系数有较多的非零元素,琐碎模板对应系数所占的能量增大。但当候选目标是当前时刻目标的真实位置时,候选目标应该可由目标模板很好的线性表示,这时琐碎模板系数应趋于零。
为了更好的利用琐碎模板,避免琐碎模板既可以表示目标而又可以表示目标受遮挡部分,为此我们采用文献[9]提出的思路自适应控制琐碎模板的能量,即将基本正则化模型进行如下修正,
其中A=[T;I]是外观模板,a=[aT;aI]是目标模板和琐碎模板对应的系数,ut则是控制琐碎模板能量的参数,通过遮挡检测来确定。当检测到遮挡时,ut=0;否则ut为预设常数。
2.2基于先验概率的正则化模型
当遇到遮挡、目标旋转和运动模糊问题时,基于L1最小化的跟踪算法[7-9][12]不稳定且容易发生漂移,所以我们引入先验概率来求解L1最小化问题。为了让关键模板在求解稀疏系数a时,能有更大的贡献,所以我们提出了如下正则化模型:
其中w的取值反映模板的归一化权重TW,为了求解w,对模板权重的归一化进行如下处理,首先,采用下式计算每个模板的归一化权重:
如果存在某个归一化权重NTW(i)的值超过0.3,则将其进行幅度消减为0.3,再进行归一化,如果重复,直至没有所有归一化权重值都在0.3范围内。然后,利用下式计算w,
将(8)式转化为下式无约束最优化问题,
其中1R(a)定义为,
为了快速求解式(11),我们将其转化为如下无约束最优化问题:
min F(a)+G(a) (13)
其中,
上式中F(a)是满足利普希茨连续梯度条件的可微凸函数,G(a)是连续的凸函数。可以利用加速近端梯度法[13]快速求解(13)式。
令则式(11)的求解步骤为:
其中γ是软阈值操作算子,且Υλ(x)=sign(x)max(|x|-λ,0) (17)
2.2模板更新策略
一般地,待跟踪视频中的目标外观模板在初始帧中手动提取,然后在后续视频序列中寻找相似区域来完成。通常情况下,目标的外观模型只会在一定时间内保持不变,当遇到光照变化、遮挡、姿态变化等挑战性因素时,外观模型不再是当前目标的精确模型。若不更新模板,外观模板将不能适应当前目标的外观变化。倘若外观模型更新过于频繁,因为每次更新模板都有可能引入小的误差,而这些误差的积累就会造成外观模型的失真,会导致漂移问题。为此,本发明采用新的模板更新策略,使用动态的外观模板来解决问题。
在本发明的方法中,为每一个目标模板Ti引入一个权值TWi,权值越大,那么对应的样本模板越重要。初始化时,目标模板集是由第一个模板通过高斯扰动仿射参数来产生,初始模板权值相等,设为1。在权值更新上,本发明的算法在每一帧中都会改变目标模板集的权值,不同于只在目标模板替换时更新权值的方法。
常规的模板更新依据外观模板线性表示跟踪结果y的稀疏系数,选择系数值最小的模板为最不重要的模板。我们通过实验观察发现,遮挡发生前的优秀模板,会在遮挡时被优先替换掉,所以在遮挡消失后,外观模板集线性表示候选目标时,会更容易发生漂移。为了防止优秀模板在目标外观发生变化时被替换掉,我们设置优秀模板标志。更新策略步骤如下所示:
第1步:在模板集中选取稀疏表达系数最大的模板Ti,此模板为当前优秀模板,对应的外观模板权值增加1,即
TW(i)=TW(i)+1 (18)
第2步:计算跟踪结果y与最相似的模板Ti的相似度g,评价标准为向量之间的角度:
g=angle(y,Ti) (19)
第3步:当g小于某阈值时,说明跟踪结果与外观模板相似,不需要进行外观模板更新;当g大于某阈值时,说明跟踪结果与外观模板集有偏差,需要进行模板的更新,选择除去优秀模板外的最不重要的模板进行更新:
第3.1步:令avg(NTW)表示所有模板归一化权重的平均值,对于模板集中的每个目标模板Ti,如果其归一化权重NTW(i)>1.5*avg(NTW),则令该模板对应的系数表达系数ai=1。
第3.2步:令利用下式对模板Tk进行更新:
其中y为当前帧的跟踪结果,n为目标模板总个数,Ti为第i个外观模板。
3.实验结果与分析
为了评估本发明提出的目标跟踪算法的有效性,在IntelCore3.2GHz,4GB内存,MATLAB2010a平台对算法进行仿真实验,我们分别选取5个有代表性的视频进行实验。所采用的视频为:Girl、Car4、FaceOcc1、BlurBody、Singer。其中FaceOcc1、Girl来自MIL算法[5],其余视频集都可以在Object Tracking Benchmark[15]提供的下载地址中找到。上述6类视频集采集地点包括室内环境和室外环境,其中包括了不同程度的光照、姿态变化、尺度变化、运动模糊、平面内外旋转、遮挡等复杂情况。
本发明实验中所涉及的常数λ=0.001,ut=10。对于上述测试视频集,被跟踪的目标在第一帧的初始位置是手动标识的,首先将初始目标模板通过高斯扰动得到其他目标模板并组成初始字典。字典模板的更新根据上文模板更新策略来进行实时检测更新。
为了衡量算法的性能,本发明同时利用经典的5种跟踪方法进行目标跟踪实验,这五类方法分别是:incremental visual tracking(IVT)[6],visual tracking decomposition(VTD)[16],Locally orderless tracking(LOT)[17],L1 tracker using accelerated proximal gradient approach(L1-APG)[12],multiple instances learning tracking(MIL)[5]。
3.1定性评估
本发明第一个实验视频为“car4”,主要用于测试算法对光照的鲁棒性,在“car4”中,被跟踪的室外车辆发生了明显的光照变化。如图2(a),在第202帧、233帧和第307帧,光线的明暗变化比较突然和剧烈,特别是在第233帧,车辆从天桥出来,光照恢复后,只有IVT、L1-APG以及本发明算法能对目标进行跟踪。VTD算法、LOT算法和MIL算法由于长时间的光照变化导致出现跟踪漂移。
本发明第二个实验基于“FaceOcc1”,主要测试算法对不相似目标遮挡的鲁棒性。从图2(b)可以看出,当跟踪目标被频繁遮挡时,MIL算法、VTD算法以及LOT算法最终丢失了目标。本发明建立的正则化模型考虑了遮挡因素,所以能够稳定连续的对被严重遮挡的目标进行跟踪。本发明算法、IVT算法以及L1-APG可以较好处理目标被遮挡问题,并且本发明算法精确度更高。
本发明第三个实验用于测试算法处理相似物遮挡的性能,测试基于“girl”视频。如图2(c)所示,在第240帧,目标第一次旋转以及遮挡时,IVT、MIL、VTD、LOT都发生了不同程度的漂移。在第422帧时,L1-APG突然发生跳跃漂移,而本发明算法一直有效的跟踪目标。因为本发明算法蕴含了遮挡检测,并且外观发生变化前后,模板更新策略可以很好地依据先验重要性来更新模板,不会仅仅依据某一次的稀疏系数来判别。该实验结果表明,本发明的正则化模型提高了重要模板的作用,可以很好地处理反复遮挡等情况。
本发明第四个实验考虑到目标快速运动等造成的运动模糊,测试基于“BlurBody”视频。从图2(d)可以看出,在第43帧,目标位置变动不大、未开始模糊,六种算法都未出现较大的漂移。在第106帧、222帧,运动模糊比较剧烈,L1-APG算法、LOT算法、IVT算法、VTD算法都出现明显的跟踪漂移。到了280帧,MIL算法也完全跟丢了目标,只有本发明算法表现出了对此类视频序列的高精确度。
为了评价算法处理目标姿态变化的性能,本发明在视频序列“singer”上进行实验。该序列的特点是目标姿态变化、光照变化、摄像机位置移动、由近到远的拍摄方式。如图2(e)所示,在第35帧时,目标与初始位置有较小位移,此时六种算法都能很好的进行跟踪。到第90帧时图像变亮,目标变小,此时LOT有略微的漂移。之后目标持续向右相对移动并持续变小,在后续帧中LOT、MIL、VTD出现明显的跟踪漂移。L1-APG和IVT算法可以跟踪到目标,本发明算法能准确跟踪且精确度较高。
3.2定量评估
为了客观的对本发明算法与其他五种算法性能进行评估,选用中心点误差作为衡量标准,其计算公式为
其中xt和yt代表不同跟踪算法的跟踪结果在两个坐标轴上的值;xg和xg则是代表真实位置对应的坐标值。
如图3(a)到3(d)所示中心误差的曲线图,这里横坐标为测试序列帧号,纵坐标为中心误差像素值。从图3(a)到3(d)可以看出本发明算法在前四种不同挑战因素的视频序列中都有很好的表现,相对于另外五种跟踪算法有一定的优势。表1统计了各个算法的平均跟踪误差,最佳结果用加粗字体标出。从表中可以看出,本发明算法在各个视频序列中均能取得较低的平均中心误差,验证了该算法的准确性。
为了进一步分析本算法的性能,依据PASCALVOC[18]检测标准,本发明采用了重叠率值,即其中Rt是算法在某帧的跟踪框覆盖的区域,Rg是测试序列提供的真实位置所在区域,重叠率值大于0.5则视为该帧跟踪成功,否则认为跟踪失败。跟踪成功的帧数除以总帧数即为跟踪成功率。表2统计了各个算法的跟踪成功率,最佳结果用加粗字体标出。从表中可以看出本发明算法在各个视频序列中的跟踪成功率较高,验证了该算法的稳定性。
表1不同算法的平均中心误差
表2不同算法的成功率
本发明针对目标跟踪易受遮挡、外观反复变化等影响,提出了一种基于稀疏表示和先验概率相结合的目标跟踪算法。算法在粒子滤波器框架下,根据提出的正则化模型求出候选目标的对应外观模型的线性表示,由最小重构误差确定当前帧的目标。根据目标稀疏表达系数的分布,对遮挡进行判断,并自适应的选择正则化模型。此外基于先验概率的权值更新策略,在对目标外观发生较大改变和遮挡面积较大的情况,同样具有较高适应性。
实验结果表明本发明的算法具有较好的有效性和鲁棒性,尤其是在目标被相似物遮挡的情况下,也能较准确的跟踪到目标,同时在一定程度上降低了计算的复杂性。
上面结合附图和实施例对本发明做了详细的说明。但是,应当理解,本发明的实施例并不限于所公开的特定实施例,并且对该实施例的修改和其他实施例也意图被包含在所附权利要求书的范围内。尽管此处使用了特定术语,但是它们仅在通用和描述性意义上使用,而非为了限制的目的。