一种基于改进ViBe算法的运动物体检测跟踪方法
【专利摘要】本发明公开了一种基于改进ViBe算法的运动物体检测跟踪方法,具体包括以下步骤:S1、在ViBe背景模型初始化前采用判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型;S2、在ViBe提取到前景图像后,进行第一次背景模型修正;S3、在运动物体检测和跟踪后,进行第二次背景模型修正;S4、在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配。本发明具有提高了背景稳定性、减少了背景噪点和误判概率、解决了“影子”遗留问题、减少了定位与跟踪的计算复杂度等优点。
【专利说明】
一种基于改进V i Be算法的运动物体检测跟踪方法
技术领域
[0001]本发明涉及计算机视频图像处理领域,具体涉及一种基于改进ViBe算法的运动物体检测跟踪方法。
【背景技术】
[0002]运动物体的检测与跟踪是智能监控视频系统的重要环节之一,其位于整个系统的最底层,是后续各个环节如目标识别、目标分类等的基础。运动物体检测是指从视频流背景中提取出运动目标前景。运动物体跟踪是指对运动目标进行持续的跟踪,以便进行下一环节处理。
[0003]ViBe(Visual background extractor)算法由Olivier Barnich和Marc VanDroogenbroeck于2009年首次提出,是一种像素级视频背景建模或前景检测的算法。其思想是首先为每个像素点存储一个样本集,样本集中采样值即该像素点过去的像素值和其邻居点的像素值;然后将输入图像的每个新的像素值和样本集进行比较,以判断是否属于背景点。该模型主要包括三个方面:模型的工作原理;模型的初始化方法;模型的更新策略。与背景相减法、帧间差分法和光流法等其他方法相比,其效果良好,对硬件内存占用也少。
[0004]然而ViBe算法也存在一些不足:
[0005]—是,ViBe算法使用视频流的第一帧图像进行背景模型初始化,也即使用一帧图像的信息建立所有背景样本集。但若第一帧存在运动物体或其他扰动(如视频抖动、光线强烈变化等),则在进行前景检测时便会对运动物体进行误判。同时,使用单一一帧建立整个背景样本集,亦会使得模型不够丰富。
[0006]二是,ViBe算法只在前景检测后进行背景模型更新,因此视频噪点无法进入模型,丰富背景模型,使得模型针对噪点抵抗能力差。而且,对于某次误判的前景亦无法较快更新,使得此误判前景多次被误判。
[0007]三是,ViBe算法对于“影子”遗留问题无法解决。所谓“影子”遗留,就是运动物体已从视频流中消失或由静止再次变为运动,原运动区域已无运动物体,但依然被判定为前景的情况。
[0008]针对ViBe算法的以上不足及现有运动物体跟踪策略大部分复杂度较高的情况,本发明提出里一种基于改进ViBe算法的运动物体检测跟踪方法。
【发明内容】
[0009]本发明的目的在于针对现有技术的不足之处,提出一种基于改进ViBe算法的运动物体检测跟踪方法,该方法提高了背景的稳定性,减少了背景噪点和误判概率,解决了 “影子”遗留问题、减少了定位与跟踪的计算复杂度。在背景模型初始化前提出一种判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型,提高了背景稳定性;在ViBe提取到前景图像后,本发明通过第一次背景模型修正,减少了背景噪点和误判概率;在运动物体检测和跟踪后,本发明进行第二次背景模型修正,解决了 “影子”遗留问题;在运动物体定位和跟踪时,利用几何比较,减少了定位与跟踪的计算复杂度。
[0010]本发明的改进原理如下:
[0011]ViBe算法利用视频流第一帧进行多维的背景模型构建,此方法若第一帧存在运动物体或其他扰动时,模型构建存在误判。因此,本发明在模型构建前对视频进行稳定性判断,只有当多帧连续帧稳定时,再进行模型构建,以消除误判;同时,在模型构建阶段采用多个稳定且无需连续的输入帧填充背景模型样本,以增加背景模型多样性。
[0012]ViBe算法仅在前景检测后进行背景模型更新,对于背景噪点和误判的运动物体无法及时更新。故而,本发明在前景图像经过形态学和连通域处理后,针对寻找出的误判前景点进行第一次背景模型修正,以减少背景噪点和误判概率。
[0013]ViBe算法由于其背景模型更新的局限,无法解决“影子”遗留问题。因此,本发明在运动物体检测和跟踪结束后,针对原有运动物体遗留的“影子”进行第二次背景模型修正,以解决拖影问题。
[0014]现有运动物体跟踪策略大部分复杂度较高,不利于监控视频流等情况下的实时处理。故而,本发明在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配,减少了定位与跟踪的计算复杂度。
[0015]本发明在背景模型初始化前提出一种判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型,提高了背景稳定性;在ViBe提取到前景图像后,本发明通过第一次背景模型修正,减少了背景噪点和误判概率;在运动物体检测和跟踪后,本发明进行第二次背景模型修正,解决了 “影子”遗留问题;在运动物体定位和跟踪时,利用几何比较,减少了定位与跟踪的计算复杂度。【具体实施方式】中的实例表明,使用本发明改进ViBe算法和定位跟踪方法后,提高了背景稳定性、减少了背景噪点和误判概率、解决了“影子”遗留问题、减少了定位与跟踪的计算复杂度。本发明适用于计算机视频图像处理领域,特别适用于视频图像处理领域。
[0016]本发明的目的可以通过以下技术方案实现:一种基于改进ViBe算法的运动物体检测跟踪方法,包括以下步骤:
[0017]S1、在ViBe背景模型初始化前采用一种判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型,提高了背景稳定性;
[0018]S2、在ViBe提取到前景图像后,通过第一次背景模型修正,减少了背景噪点和误判概率;
[0019]S3、在运动物体检测和跟踪后,进行第二次背景模型修正,解决了“影子”遗留和拖影问题;
[0020]S4、在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配,减少了定位与跟踪的计算复杂度。
[0021]在步骤SI中,判定视频稳定的策略是基于当前帧I与由I前三帧通过权值分配构建的临时背景图像I’经过差分所获得的二值化图像D,其中,O表示前景点,255表示为背景点,通过对前景点数统计判断当前帧是否稳定,再通过对连续稳定帧数的统计判定视频是否稳定。
[0022]在步骤SI中,采用多个稳定且无需连续的输入帧进行背景模型构建,其中,背景模型的定义如下,设多帧背景模型B(X)为:
[0023]B(x) = {Β(χι),...,B(Xi),...,B(xn) } = Iff(Xi),...,W(Xi),...,W(xn) },
[0024]式中^为背景模型的帧数^^^’幻^^^为第丨帧背景样本^^^为第丨帧背景构建输入样本。
[0025]背景模型的构建方法是,利用权利要求2方法判断当前帧是否稳定;若帧稳定,则记为W(Xi);若背景模型帧数达到N帧,则模型构建完成;若连续Wframe帧不稳定,则重新判断视频是否稳定。
[0026]在步骤S2中,第一次背景模型修正的修正点寻找策略为:对ViBe算法提取的二值化前景图像V1进行形态学和连通域处理,得到二值化图像V2;寻找被V1判定为前景点且被V2判定为背景点的点集F1,并利用点集F1进行背景模型修正。
[0027]在步骤S2中,第一次背景模型修正的修正策略为:设修正概率为γ= γ i,修正半径为I = I1,修正点集F = F1,则对于点集F内的每一个点b(r,c)都以概率γ修正背景模型B(X)的第i帧对应样本点B(xi(r, c));同时也以概率γ修正以背景模型Β(χ)第i帧对应样本点B (Xi (r,c))为中心,以I半径的邻域样本点。
[0028]在步骤S3中,第二次背景模型修正的修正点寻找策略为:基于定位和跟踪结果寻找出需加强修正的运动物体类别,即运动物体遗留的“影子”,,如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。对于点集内利用权利要求5中的修正策略以修正概率为γ =γ 2,修正半径为I = I2进行背景模型修正。
[0029]在步骤S4,匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR。若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
[0030]运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
[0031 ]将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
[0032]本发明提出的具体方法如下:
[0033]判定视频稳定的策略是基于当前帧I与由I前三帧通过权值分配构建的临时背景图像I’经过差分所获得的二值化图像D(其中O表示前景点,255表示为背景点),通过对前景点数统计判断当前帧是否稳定,再通过对连续稳定帧数的统计判定视频是否稳定。附图2为视频稳定判断阶段的示意图。
[0034]在背景模型构建阶段采用多个稳定且无需连续的输入帧进行背景模型构建。其中背景模型的定义如下,设多帧背景模型B(X)为:
[0035]B(x) = {Β(χι),...,B(Xi),...,B(xn) } = Iff(Xi),...,W(Xi),...,W(xn) },
[0036]式中,B(X1)为第i帧背景样本,W(X1)为第i帧背景构建输入样本,N为背景模型帧数。
[0037]具体地,背景模型的构建方法是,利用权利要求2方法判断当前帧是否稳定;若帧稳定,则记为W(Xi);若背景模型帧数达到N帧,则模型构建完成;若连续Wframe帧不稳定,则重新判断视频是否稳定。
[0038]第一次背景模型修正,其修正点寻找策略为:对ViBe算法提取的二值化前景图像V1进行形态学和连通域处理,得到二值化图像V2;寻找被V1判定为前景点且被V2判定为背景点的点集?:,并利用点集F1进行背景模型修正。其背景模型修正的策略为:设修正概率为γ=γ I,修正半径为1 = 1ι,修正点集F = Fi,则对于点集F内的每一个点b(r,c)都以概率γ修正背景模型B(X)的第i帧对应样本点B(Xl(r,c));同时也以概率γ修正以背景模型B(X)第i帧对应样本点B (Xi (r,c))为中心,以I半径的邻域样本点。
[0039]第二次背景模型修正,其修正点寻找策略为:基于定位和跟踪结果寻找出需加强修正的运动物体类别(即运动物体遗留的“影子”),如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。对于点集?2利用权利要求5中的修正策略以修正概率为γ = γ 2,修正半径为I = I2进行背景模型修正。
[0040]运动物体定位和跟踪的策略是:
[0041 ] (I)运动物体定位和跟踪匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR13STR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
[0042](2)运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
[0043](3)将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
[0044]本发明方法可以具体包括如下步骤:
[0045]步骤S1:将输入帧与由当前帧的前三帧构建的临时背景图像比较以判断是否帧稳定及视频稳定;若视频稳定则进行步骤S2背景模型初始化,否则等待背景稳定,如图2所示;
[0046]1-1)利用当前帧I的前三帧构建临时背景图像I’,SP:
[0047]I,=WlIl+W2l2+W3l3,
[0048]式中,h、I2、I3为当前帧I的前三帧,W1、W2、W3为每帧所设置的权值,且
[0049]W1+W2+W3 = I。为使得I ’适应背景的实时变化,设置W1>W2>W3。
[0050]1-2)将当前帧I与临时背景I’进行差分,SP:
[0051]D= Il-1' I ,
[0052]式中,D为差分所得图像。
[0053]1-3)将D转换为二值化图像,其中O表示前景点,255表示为背景点。计算前景点数Dcount,若Dcount小于阈值Dthres,贝Ij表示当前帧稳定。
[0054]1-4)若连续帧Dframei都被判断为稳定,则认定视频稳定,进入步骤S2 ;若连续Dframe2帧都被判断为不稳定,则重新检测视频稳定。
[0055]步骤S2:采用多个稳定且无需连续的输入帧构建背景模型;
[0056]2-1)背景模型的定义为,设多帧背景模型B(X)为:
[0057]B(x) = {Β(χι),...,B(Xi),...,B(xn) } = Iff(Xi),...,W(Xi),...,W(xn) },
[0058]式中,B(X1)为第i帧背景样本,W(X1)为第i帧背景构建输入样本,N为背景模型帧数。
[0059]2-2)背景模型的构建方法是,利用步骤SI中的方法判断当前帧是否稳定;若稳定,则记为W(Xi);若连续Wframe帧均不稳定,则将B(X)中背景样本清空,返回步骤SI。若背景模型帧数达到N帧,则进入步骤S3。
[0060]步骤S3:利用背景模型和ViBe算法对输入帧提取二值化前景图像,并进行背景模型更新;
[0061]步骤S4:对所得二值化前景图像进行形态学与连通域处理;
[0062]步骤S5:根据步骤S4处理后的前景图像一次修正背景模型;
[0063]5-1)寻找被步骤S3的二值化前景图像V#lj定为前景点且被步骤S4的二值化前景图像%判定为背景点的点集F1。
[0064]5-2)利用点集?工进行背景模型修正,得到二值化前景图像V3。修正策略为:设修正概率为γ = γι,修正半径为I = I1,修正点集F = F1,则对于点集F内的每一个点b(r,c)都以γ的概率去修正背景模型B(X)的第i帧对应样本点B(Xi(r,c));同时也以概率γ去修正以背景模型B (X)第i帧对应样本点B (Xi (r,c))为中心,以I半径的邻域样本点。
[0065]步骤S6:对步骤S4处理后的前景图像进行阴影去除、前景分割与运动矩形框提取;
[0066]步骤S7:将提取的运动矩形框集与已有运动物体动态矩形框集匹配,实现目标定位与跟踪;
[0067]7-1)当前帧运动矩形框集与运动物体动态矩形框集的匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框0^进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR。若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
[0068]7-2)运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
[0069]7-3)将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
[0070]步骤S8:针对定位与跟踪的不同结果,二次修正背景模型。
[0071]8-1)基于步骤S7的匹配结果,寻找出需加强修正的运动类别(即运动物体遗留的“影子”),如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。
[0072]8-2)对于点集FdIj用步骤5-2)中的修正策略以修正概率为γ = γ 2,修正半径为I=I2进行背景修正。
[0073]相对于现有技术,本发明的具有如下的优点与有益效果:
[0074]1、本发明通过判断视频稳定情况,消除了背景建模时因扰动产生的误判。
[0075]2、本发明利用多个稳定且无需连续的视频帧建立背景模型,增强了背景模型对抗干扰的稳定性。
[0076]3、本发明通过第一次背景模型修正,减少了背景噪点和误判概率。
[0077]4、在运动物体检测和跟踪后,本发明进行了第二次背景模型的修正,有效解决了“影子”遗留问题。
[0078]5、在运动物体定位和跟踪时,利用几何比较,减少了定位与跟踪的计算复杂度。
【附图说明】
[0079]图1为本发明运动物体检测跟踪方法的整体流程图。
[0080]图2为本发明视频稳定判断阶段的示意图。
【具体实施方式】
[0081]下面结合附图及具体实施例,对本发明作进一步地详细说明。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
[0082]实施例
[0083]如图1所示,为本发明的一种基于改进ViBe算法的运动物体检测跟踪方法的整体流程图,包括以下步骤:
[0084]步骤S1:将输入帧与由当前帧的前三帧构建的临时背景图像比较以判断是否帧稳定及视
[0085]频稳定;若视频稳定则进行步骤S2背景模型初始化,否则等待背景稳定,如图2所示;
[0086]1-1)利用当前帧I的前三帧构建临时背景图像I’,SP:
[0087]I,=WlIl+W2l2+W3l3,
[0088]式中,I1J2J3为当前帧I的前三帧,W1、W2、W3为每帧所设置的权值,且W1+W2+W3 = l。为使得I ’适应背景的实时变化,设置W1>W2>W3。
[0089]1-2)将当前帧I与临时背景I’进行差分,SP:
[0090]D= Il-1' I ,
[0091]式中,D为差分所得图像。
[0092]1-3)将D转换为二值化图像,其中O表示前景点,255表示为背景点。计算前景点数Dcount,若Dcount小于阈值Dthres,贝Ij表示当前帧稳定。
[0093]1-4)若连续帧Dframei都被判断为稳定,则认定视频稳定,进入步骤S2 ;若连续Dframe2帧都被判断为不稳定,则重新检测视频稳定。
[0094]步骤S2:采用多个稳定且无需连续的输入帧构建背景模型;
[0095]2-1)背景模型的定义为,设多帧背景模型B(X)为:
[0096]B(x) = {Β(χι),...,B(Xi),...,B(xn) } = Iff(Xi),...,W(Xi),...,W(xn) },
[0097]式中,B(X1)为第i帧背景样本,W(X1)为第i帧背景构建输入样本,N为背景模型帧数。
[0098]2-2)背景模型的构建方法是,利用步骤SI中的方法判断当前帧是否稳定;若稳定,则记为W(Xi);若连续Wframe帧均不稳定,则将B(X)中背景样本清空,返回步骤SI。若背景模型帧数达到N帧,则进入步骤S3。
[0099]步骤S3:利用背景模型和ViBe算法对输入帧提取二值化前景图像,并进行背景模型更新;
[0100]步骤S4:对所得二值化前景图像进行形态学与连通域处理;
[0101]步骤S5:根据步骤S4处理后的前景图像一次修正背景模型;
[0102]5-1)寻找被步骤S3的二值化前景图像V#lj定为前景点且被步骤S4的二值化前景图像%判定为背景点的点集F1。
[0103]5-2)利用点集?工进行背景模型修正,得到二值化前景图像V3。修正策略为:设修正概率为γ = γι,修正半径为I = I1,修正点集F = F1,则对于点集F内的每一个点b(r,c)都以γ的概率去修正背景模型B(X)的第i帧对应样本点B(Xi(r,c));同时也以概率γ去修正以背景模型B (X)第i帧对应样本点B (Xi (r,c))为中心,以I半径的邻域样本点。
[0104]步骤S6:对步骤S4处理后的前景图像进行阴影去除、前景分割与运动矩形框提取;
[0105]步骤S7:将提取的运动矩形框集与已有运动物体动态矩形框集匹配,实现目标定位与跟踪;
[0106]7-1)当前帧运动矩形框集与运动物体动态矩形框集的匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框0^进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR。若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败。同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。
[0107]7-2)运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框PRe。
[0108]7-3)将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T。具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出。同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
[0109]步骤S8:针对定位与跟踪的不同结果,二次修正背景模型。
[0110]8-1)基于步骤S7的匹配结果,寻找出需加强修正的运动类别(即运动物体遗留的“影子”),如本发明实例中寻找出消失的运动物体和由静止转化为运动的运动物体,提取它们所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2。
[0111]8-2)对于点集Fdij用步骤5-2)中的修正策略以修正概率为γ = γ2,修正半径为I=I2进行背景修正。
[0112]上述实施例为发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
【主权项】
1.一种基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,包括以下步骤: 51、在ViBe背景模型初始化前采用判断视频稳定的策略,并在视频稳定后采用多个稳定且无需连续的输入帧构建背景模型; 52、在ViBe提取到前景图像后,进行第一次背景模型修正; 53、在运动物体检测和跟踪后,进行第二次背景模型修正; 54、在运动物体定位和跟踪时,利用几何比较,对当前帧中的运动物体框集与由此前一定时间内的运动物体框集构建的运动物体动态矩形框集进行匹配。2.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤SI中,判定视频稳定的策略是基于当前帧I与由I前三帧通过权值分配构建的临时背景图像I’经过差分所获得的二值化图像D,其中,O表示前景点,255表示为背景点,通过对前景点数统计判断当前帧是否稳定,再通过对连续稳定帧数的统计判定视频是否稳定。3.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤SI中,采用多个稳定且无需连续的输入帧进行背景模型构建,所述背景模型的定义如下,设多帧背景模型B(X)为:B(x) = {Β(χι),...,B(Xi),...,B(xn) } = Iff(Xi),...,W(Xi),...,W(xn) }, 式中^为背景模型的帧数^^^’幻^^^为第^贞背景样本^^丨为第^贞背景构建输入样本; 背景模型的构建方法是,利用权利要求2方法判断当前帧是否稳定;若帧稳定,则记为W(Xi);若背景模型帧数达到N帧,则模型构建完成;若连续Wframe帧不稳定,则重新判断视频是否稳定。4.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S2中,第一次背景模型修正的修正点寻找策略为:对ViBe算法提取的二值化前景图像V1进行形态学和连通域处理,得到二值化图像V2;寻找被V1判定为前景点且被V2判定为背景点的点集F1,并利用点集F1进行背景模型修正。5.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S2中,第一次背景模型修正的修正策略为:设修正概率为γ = γ i,修正半径为I = I1,修正点集F = F1,则对于点集F内的每一个点b(r,c)都以概率γ修正背景模型B(X)的第i帧对应样本点B(xi(r,c));同时也以概率γ修正以背景模型B(X)第i帧对应样本点B(xi(r,c))为中心,以I半径的邻域样本点。6.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S3中,第二次背景模型修正的修正点寻找策略为:基于定位和跟踪结果寻找出需加强修正的运动物体类别,即运动物体遗留的“影子”,寻找出消失的运动物体和由静止转化为运动的运动物体,提取运动的运动物体所对应的运动物体动态矩形框,将属于矩形框内的点放入点集F2;对于点集内利用权利要求5中的修正策略以修正概率为γ = γ 2,修正半径为I = I2进行背景模型修正。7.根据权利要求1所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,在步骤S4,所述匹配的匹配方法是,对于由此前一定时间内的运动物体框集构建的运动物体动态矩形框集PR中的每个动态矩形框PRm,分别与当前帧运动矩形框集CR中每一个矩形框CRj进行面积重合、长宽比例等几何比较,选出与PRm最为相似的矩形框TR;若TR满足设定的相似几何阈值,则匹配成功;否则匹配失败;同时,矩形框集PR、CR中已匹配的矩形框不再与未匹配的矩形框进行二次匹配。8.根据权利要求7所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,运动物体动态矩形框集PR的构建策略为,若集合CR中的某一运动物体框CRk与集合PR中的任一矩形框均匹配失败,则被判定为新运动物体,利用边缘放大后的CRk建立新的动态矩形框PRd;若CRk与某一动态矩形框PRe匹配成功,则利用边缘放大后的CRk根据一定权值更新矩形框 PRe ο9.根据权利要求7所述的基于改进ViBe算法的运动物体检测跟踪方法,其特征在于,将运动物体动态矩形框集PR中的矩形框分为两类:待跟踪物体矩形框E、需跟踪物体矩形框T;具体地,待跟踪物体矩形框E是指矩形框更新次数小于三次,尚无法判断是否为误判的矩形框,此时只进行矩形框更新,不作为物体定位跟踪结果输出;需跟踪物体矩形框T是指其中矩形框更新次数大于等于三次,确定为存在运动物体的矩形框,此时既进行矩形框更新,也作为物体定位跟踪结果输出;同时,若某一动态矩形框PRk连续三帧均未匹配到运动物体框,则认为其所对应的运动物体消失或误判,将PRk从集合PR中移除。
【文档编号】G06T7/20GK105931267SQ201610239032
【公开日】2016年9月7日
【申请日】2016年4月15日
【发明人】贺前华, 李悦馨, 庞文丰
【申请人】华南理工大学