一种基于聚类融合的视频序列的目标跟踪方法与流程

文档序号:13717794阅读:250来源:国知局
技术领域本发明涉及计算机视觉、模式识别等领域,具体涉及将多种视频序列目标跟踪方法进行融合,可用于对视频序列中的目标进行跟踪。

背景技术:
目标跟踪广泛应用于视频监视、人机交互及交互视频的制作。目标跟踪具有很高的难度,要考虑众多的影响因素,比如光照变化,目标半遮挡和全遮挡,二维/三维目标旋转、变形,比例变化,低分辨率,快速移动,目标模糊,目标与背景相似或与场景中的其他物体相似。因此,传统的单一跟踪方法难以实现对所有场景的高准确度跟踪,只能解决专门场景中的目标跟踪。对于目标跟踪,国外学者最新发表的《Parallelrobustonlinesimpletracking》中,用特定的方式结合光流法,模板跟踪法和检测算法进行目标跟踪。此方法可以提高跟踪效果,但是这三部分算法只能被相似的方法替换,有太大的局限性。目前的算法的共性在于:算法只能融合固定的算法或者只能被相似的算法替换,因此如果有一种新方法,它能够融合多种(数量大于等于2)视频序列目标跟踪方法且能实现较好的跟踪效果,那将是目标跟踪领域的一大进步。

技术实现要素:
针对现有技术的不足,本发明旨在提供一种基于聚类融合的视频序列目标跟踪方法,针对各种影响跟踪的因素,通过融合不同方法的跟踪结果来得出一种结果。为了实现上述目的,本发明采用如下技术方案:一种基于聚类融合的视频序列的目标跟踪方法,包括如下步骤:S1获取被跟踪目标的视频序列;S2对所述视频序列采用至少两种方法进行目标跟踪,分别得到采用每种方法进行目标跟踪的结果;S3根据步骤S2中各种方法得到的目标跟踪结果,确定每种方法得到的被跟踪目标矩形外界边框,并将所有的矩形外界边框坐标作为输入;S4以步骤S3中输入的所有矩形外界边框坐标的均值作为被跟踪目标的初始聚类中心,不限定分类数,对所有输入的矩形外界边框的坐标进行加权分类,判断其是否属于该初始类;S5经过步骤S4的聚类后,对初始类中所有矩形外界边框的坐标取均值,即为最终的目标跟踪结果。需要说明的是,步骤S4中对每个输入的矩形外界边框的坐标进行加权分类,确定是否属于初始类的具体方法如下:令s=1:n;t=1:m;H(t,s)=data(t,s)/aveData(s);其中,H(t,s)为输入的每个矩形外界边框坐标数据对应的权重,n为每个矩形外界边框坐标数据的维数,m为矩形外界边框坐标数据的个数总数,s为某个矩形外界边框坐标数据中的第s维,t为所有矩形外界边框坐标数据中的第t个数据,data(t,s)为每个t和s所对应的矩形外界边框坐标数据,aveData为所有矩形外界边框坐标数据的均值,aveData(s)为均值对应的维数,即每个矩形外界边框坐标数据的每一维的权重就是该矩形外界边框坐标数据除以均值相对应的维数;对每个矩形外界边框坐标数据的每一维进行加权后,计算各个矩形外界边框坐标数据与所述初始聚类中心的欧几里得距离,再分别计算每个矩形外界边框坐标数据之间的欧几里得距离;对于每个矩形外界边框坐标,如果其与初始聚类中心的距离值大于与其他矩形外界边框坐标的距离值,即与初始聚类中心的距离最小,那么就把该矩形外界边框坐标数据归于初始类中。本发明的有益效果在于:通过本发明方法,可以融合多种视频序列跟踪方法,从而提高了跟踪效果,而且运行时间也大大缩短。附图说明图1为本发明的实施流程图;图2为本发明的性能效果示意图。具体实施方式以下将结合附图对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。如图1所示,一种基于聚类融合的视频序列的目标跟踪方法包括如下步骤:S1获取被跟踪目标的视频序列;在本实施例中,将该视频序列命名为carScale。S2对视频序列carScale采用29种方法分别进行跟踪,分别得到采用每种方法进行目标跟踪的结果。所述29种跟踪方法分别为:VR、TM、RS、PD、MS、CT、TLD、IVT、DFT、ASLA、L1APG、ORIA、MTT、CSK、SCM、LOT、CPF、Struck、MIL、OAB、SBT、BSBT、Frag、KMS、SMS、LSK、VTS、VTD、CXT。S3根据步骤S2中各种方法得到的目标跟踪结果,确定每种方法得到的被跟踪目标矩形外界边框,并将所有的外界边框坐标作为输入;S4以步骤S3中输入的所有矩形外界边框坐标的均值作为被跟踪目标的初始聚类中心,不限定分类数,对所有输入的矩形外界边框的坐标进行加权分类,判断其是否属于该初始类:令s=1:n;t=1:m;H(t,s)=data(t,s)/aveData(s);其中,H(t,s)为输入的每个矩形外界边框坐标数据对应的权重,n为每个矩形外界边框坐标数据的维数,m为矩形外界边框坐标数据的个数总数,s为某个矩形外界边框坐标数据中的第s维,t为所有矩形外界边框坐标数据中的第t个数据,data(t,s)为每个t和s所对应的矩形外界边框坐标数据,aveData为所有矩形外界边框坐标数据的均值,aveData(s)为均值对应的维数,即每个矩形外界边框坐标数据的每一维的权重就是该矩形外界边框坐标数据除以均值相对应的维数;对每个矩形外界边框坐标数据的每一维进行加权后,计算各个矩形外界边框坐标数据与所述初始聚类中心的欧几里得距离,再分别计算每个矩形外界边框坐标数据之间的欧几里得距离;对于每个矩形外界边框坐标,如果其与初始聚类中心的距离值大于与其他矩形外界边框坐标的距离值,即与初始聚类中心的距离最小,那么就把该矩形外界边框坐标数据归于初始类中。S5经过步骤S4的聚类后,对初始类中所有矩形外界边框的坐标取均值,即为最终的目标跟踪结果。本实施例中,针对carScale视频序列的252帧图像组成的测试数据集OPE,采用覆盖率(Successrate)对本发明以及ORIA、IVT、ASLA、SCM、LSK、L1APG、SMS、MIT等跟踪方法得到的结果分别进行评估,具体为:O(a,b)=|a∩b||a∪b|.]]>其中,a表示本发明方法得到的跟踪矩形外界边框,b代表目标实际的矩形外界边框,∪是两个矩形外界边框的并集,∩是两个矩形外界边框的交集,O(a,b)为测量跟踪结果矩形外界边框与实际结果矩形外界边框的覆盖率。评估结果如图2所示,每条曲线均为覆盖率大于阈值得出的曲线。从图2中可以看出,本发明方法(Kmeans)得出的覆盖率评估结果整体上优于其他方法。本发明方法与其他几种方法的跟踪精度数据如表1所示。表1本发明的跟踪精度为0.708,CXT的跟踪精度为0.672,ORIA的跟踪精度为0.646,IVT的跟踪精度为0.62,ASLA的跟踪精度为0.601,SCM的跟踪精度为0.587,LSK的跟踪精度为0.575,L1APG的跟踪精度为0.494,SMS的跟踪精度为0.488,MTT的跟踪精度为0.481,其中跟踪精度为每条曲线下方与横轴和纵轴围成的面积。通过跟踪精度可以看出,本发明、CXT、ORIA和IVT的跟踪效果较好,其它跟踪方法效果较差,而本发明方法的跟踪效果又明显优于CXT、ORIA和IVT。进一步地,本发明的运行时间为52秒,CXT、ORIA和IVT的跟踪效果较好,但运行时间分别为395秒、315秒和144秒,与本发明相比运行时间较长。综上所述,利用本发明方法得到的跟踪结果效果较好,且一定程度上缩短了运行时间。对于本领域的技术人员来说,可以根据以上的技术方案和构思,作出各种相应的改变和变形,而所有的这些改变和变形都应该包括在本发明权利要求的保护范围之内。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1