一种基于改进Vibe+算法的运动目标背景分割方法与流程

文档序号:20357878发布日期:2020-04-10 23:28阅读:480来源:国知局
一种基于改进Vibe+算法的运动目标背景分割方法与流程

本发明涉及视频图像处理技术领域,特别涉及一种基于改进vibe+算法的运动目标背景分割方法。



背景技术:

近年来,随着智慧平安城市建设进程不断加快,越来越多的城市道路配置有监控摄像头。交通管理部门、公安部门等机构工作人员可以根据各城市道路布控的监控摄像头获取的视频数据为基础,对城市道路中可能出现的异常情况进行实时的判别与预警,以更好地保障市民们的安全出行。

由于现有城市道路分布较为复杂,各路段监控摄像头获取的视频数据数量较为庞大,再加上视频监控作业的实时性要求较高,工作人员仅凭肉眼很难对大量视频数据进行及时监控处理。为了辅助工作人员对视频数据进行高效实时监控,现有技术对视频数据中的图像进行背景分割处理,从而筛去视频数据中的各种干扰图像数据,进而提高工作人员对实时监控视频数据的监控处理效率。比如,中国专利cn201710168104.7公开了一种基于运动显著图和光流矢量分析的动态背景目标分割方法,首先基于运动显著图提取运动目标的大致区域,然后借助邻近帧之间的光流场获得运动目标和背景区域的运动边界,并利用运动边界对运动显著图进行分析,从而得到运动目标内部精确的像素点,最后通过过分割技术获取图像超像素,并通过引入置信度的概念和建立包含多种信息的表观模型实现最终像素一级的目标分割;中国专利cn201310426015.x公开了一种基于对称差分法和联合双边滤波相结合的背景静止的运动目标分割方法,该方法首先对连续三帧图像进行差分得到运动区域即对称差分图,然后采用不同滤波模板以当前帧为引导图对对称差分图进行联合双边滤波,并将滤波后的结果进行线性相加,得到运动目标图最后,利用此边缘对运动目标图细化即进行扫描搜索赋值,从而分割出完整并精确的运动目标;中国专利cn201310032167.1公开了一种基于分水岭分割的静态背景下运动目标检测方法,包括对采集到的视频数据进行预处理,然后使用极小值点的分水岭算法对视频图像进行分割,通过对相邻帧之间的特征点映射关系得到连续帧内的特征点运动轨迹,最后利用综合评价模型,综合考虑特征点轨迹信息的七个主要影响因素,计算出每个特征点的综合评价分数,将低于设定阈值的特征点判定为运动目标,从而将视频数据中的运动目标图像数据进行提取。

在实现本发明的过程中,发明人发现相关技术至少存在以下问题:

相关技术提供的动态背景目标分割方法,虽然针对给定的视频数据集可以取得一定的效果,但是当遇到较为复杂的运动场景时,例如监控视频中会出现运动的行人、机动车辆、非机动车辆等,静止目标有建筑物、大树、交通路口红绿灯、河流、高山等,当采用以上传统算法进行前景提取时,很容易因为树叶随风摆动或者河流流动的运动梯度模式与目标运动模式一致而导致前景目标提取失败;此外,在自然场景下,天气有晴天、阴天、雨天、雪天,不同的天气条件会导致分割异常,例如,当太阳光直射在目标表面产生高光区时,常常会因为高光区域的图像信息失真问题导致目标提取不完全,从而导致分割失败,而且阳光下运动目标的拖影较明显,拖影会随着目标运动而运动,会使得拖影部分附着在前景目标中一起被分割出来,从而导致对运动目标的分割失败。



技术实现要素:

为了解决现有运动目标分割方法在复杂运动场景下存在的目标误分割问题,本发明公开了一种基于改进vibe+算法的运动目标背景分割方法,该方法可确保在复杂场景下,可实现较高的目标分割精度,同时降低目标识别时间,在一定程度上给现有背景分割的理论算法予以补充和完善。本发明方法综合应用了人工智能、图像处理、计算机软件技术、视频跟踪理论等交叉学科在运动场景下对物体进行前提提取与背景分割,结果精确且处理速度快,达到提高对目标监控视频运动目标的分割准确度和分割效率的技术效果,且具有较高的实时性。

根据本发明实施例的一个方面,提供一种基于改进vibe+算法的运动目标背景分割方法,其特征在于,所述方法包括:

(1)获取目标监控视频;

(2)对于所述目标监控视频中的每帧视频图像,采用vibe+运动目标分割算法对所述视频图像进行图像分割得到所述视频图像的二值化图像,再采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,根据各个连通区域的面积数值大小确定面积筛选阈值,对于所述二值化图像中经区域标记处理的每个连通区域,将所述二值化图像中像素值为1的区块面积低于所述面积筛选阈值的连通区域进行删除,得到去噪点分割处理后的二值化图像;

(3)对于所述目标监控视频中的每帧视频图像,根据改进meanshift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,并获取各个拖影区块在所述视频图像所对应去噪点分割处理后二值化图像的拖影位置坐标,将所述二值化图像中各个拖影位置坐标所对应像素点的像素值确定为0,得到去拖影分割后的二值化图像;

(4)对于去拖影分割后的每个二值化图像,计算所述二值化图像上下左右四个极值点坐标,在所述二值化图像所对应视频图像中根据所述四个极值点坐标确定运动目标图像,实现对所述目标监控视频中运动目标背景的分割。

在一个优选的实施例中,步骤(2)中所述采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,包括:

对于所述二值化图像中的每个像素点,遍历所述像素点周围八邻域内的面积子区块;

当检测到存在相邻像素点周围八邻域内的面积子区块与所述像素点周围八邻域内的面积子区块相连通时,将所述像素点周围八邻域内的面积子区块与各个相邻像素点周围八邻域内的面积子区块共同确定为连通区域;

按照连通区域的确定先后顺序,对各个连通区域依次进行区域标记。

在一个优选的实施例中,步骤(2)中所述根据各个连通区域的面积数值大小确定面积筛选阈值,包括:

计算各个连通区域的面积数值;

将各个连通区域的面积数值存入向量vec1中;

将向量vec1中的各个面积数值按照从大到小的顺序依次排列,依次计算各相邻面积数值之间的面积差值,并将各个面积差值存入向量vec2中;

确定向量vec2中最大的面积差值所对应的二个面积数值,将所述二个面积数值的平均值确定为面积筛选阈值。

在一个优选的实施例中,所述改进meanshift聚类算法包括:

在meanshift聚类算法中引入线性核函数、多项式核函数、高斯核函数、多元二次核函数和sigmoid核函数的均值组合模式共同对视频图像进行聚类计算,得到所述视频图像对应的各个区域块图像。

在一个优选的实施例中,所述对于所述目标监控视频中的每帧视频图像,根据改进meanshift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,包括:

对于所述目标监控视频中的每帧视频图像,采用改进meanshift聚类算法对所述视频图像进行聚类,得到各个区域块图像;

提取所述视频图像所对应各个区域块图像在l*a*b颜色空间的颜色直方图,以及纹理特征texton特征直方图,根据各个区域块图像对应的颜色直方图和纹理特征texton特征直方图训练支持向量机分类器,生成得到所述视频图像所对应的阴影先验分布图;

采用碎片化卷积神经网络对所述视频图像所对应阴影先验分布图中各个区域块图像进行计算,分别得到所述视频图像所对应各个区域块图像的拖影概率预测值,所述碎片化卷积神经网络包括六个卷积层、两个池化层和一个全连接类别输出层,所述碎片化卷积神经网络的输入数据为32×32区块的区域块图像,输出数据为区域块图像为拖影的拖影概率预测值;

将所述视频图像中拖影概率预测值大于预设概率预测值的区域块图像识别为拖影区块。。

在一个优选的实施例中,所述方法还包括:

对于每帧视频图像,采用约束函数获取所述视频图像所对应各个区域块图像中的拖影边缘区块,所述约束函数的表达式为:

其中,m为分割区块的数量,α为固定常数项,r(s)表示所包含的区块之间的边界像素集合;

采用所述碎片化卷积神经网络对所述视频图像所对应各个拖影边缘区块进行计算,分别得到各个拖影边缘区块的拖影概率预测值;

将所述视频图像中拖影概率预测值大于预设概率预测值的拖影边缘区块识别为拖影区块。

在一个优选的实施例中,所述方法还包括:

构建碎片化卷积神经网络,以各个训练样本图像所对应原始rgb图像和阴影先验分布图作为训练数据获取源,采用拖影区块、非拖影区块、拖影边缘区块作为三种训练图像类型,对所述碎片化卷积神经网络进行训练,得到训练后的碎片化卷积神经网络。

通过执行上述步骤,在使用本发明提供的一种基于改进vibe+算法的运动目标背景分割方法对目标监控视频进行运动目标分割处理时可具备以下有益效果:

(1)通过首次基于卷积神经网络模型从二值图像中运动目标拖影识别的角度阐述视频中拖影的快速分割方法,并通过实验证实该方法确实可以达到一定的分割精度;

(2)基于监控摄像头获取数据形式,在复杂场景为对运动目标的前景提取提供了一种全新的算法创新视角;

(3)该方法可在保证较高识别率的基础上,提高程序运行效率,降低运动目标分割时间,在一定程度上给现有理论方法予以补充和完善。

综上所述,本发明提供的一种基于改进vibe+算法的运动目标背景分割方法可以包括以下有益效果:

本发明提供的一种基于改进vibe+算法的运动目标背景分割方法,通过对目标监控视频采用vibe+算法获取二值化图像,采用基于区域生长的连通域标记法对分割图像中各连通区域进行标记,依据边界面积块差异特征设定面积筛选阈值,将二值化图像中低于面积筛选阈值的连通区域进行删除;并对meanshift聚类算法改进后,与碎片化卷积神经网络算法融合对分割后的二值化图像中拖影区块、非拖影区块和拖影边缘区块分类识别,标记拖影区块在二值化图像中位置坐标,基于拖影检测结果对二值化图像中各个拖影区域进行快速删除,获取最终的分割结果,达到提高对目标监控视频运动目标的分割准确度和分割效率的技术效果。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。

图1是本发明一个实施例提供的一种基于改进vibe+算法的运动目标背景分割方法的流程示意图。

图2是本发明一个实施例提供的一种改进meanshift聚类算法与碎片化卷积神经网络融合算法消除拖影步骤示意图。

图3是本发明一个实施例提供的对目标监控视频中各帧视频图像的处理流程示意图。

图4是本发明一个实施例提供的各分割算法对示例视频图像a的处理效果图。

图5是本发明一个实施例提供的各分割算法对示例视频图像b的处理效果图。

具体实施方式

为了使本发明的目的、技术方案和优点更加清楚,以下结合具体实施例(但不限于所举实施例)与附图详细描述本发明,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。

请参考图1,其示出了本发明一个实施例提供的一种基于改进vibe+算法的运动目标背景分割方法的流程示意图,如图1所示,所述方法包括:

步骤(1):获取目标监控视频。

目标监控视频的获取来源可以是城市各道路监控中心提供的监控视频。

步骤(2):对于所述目标监控视频中的每帧视频图像,采用vibe+运动目标分割算法对所述视频图像进行图像分割得到所述视频图像的二值化图像,再采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,根据各个连通区域的面积数值大小确定面积筛选阈值,对于所述二值化图像中经区域标记处理的每个连通区域,将所述二值化图像中像素值为1的区块面积低于所述面积筛选阈值的连通区域进行删除,得到去噪点分割处理后的二值化图像。

需要说明的是,对目标监控视频采用成熟的vibe+算法获取目标监控视频中每帧视频图像的二值化图像后,各个二值化图像中存在较为明显的噪声干扰和运动拖影,因此需要针对目标监控视频中每一帧中由非目标引起的噪声扰动干扰点进行处理,由于这些干扰点具有断断续续且相互联接不紧密的特点,而且噪声的大小是随机的,即无法对噪声进行建模处理,因此,本发明采用基于区域生长的连通域标记法对分割图像中所有的连通区域进行标记。

在一个优选的实施例中,步骤(2)中所述采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,包括:

对于所述二值化图像中的每个像素点,遍历所述像素点周围八邻域内的面积子区块;

当检测到存在相邻像素点周围八邻域内的面积子区块与所述像素点周围八邻域内的面积子区块相连通时,将所述像素点周围八邻域内的面积子区块与各个相邻像素点周围八邻域内的面积子区块共同确定为连通区域;

按照连通区域的确定先后顺序,对各个连通区域依次进行区域标记。

在一种可能的实施方式中,基于区域生长的连通域标记法的算法流程可以如下:

(a)输入二值化图像,初始化一个与该二值化图像相同尺寸的标记矩阵lm、一个队列以及标记计数ln;

(b)按从左至右、从上至下顺序扫描该二值化图像,当扫描到一个未被标记的像素点p时,ln自增1并在lm中标记p点(对应点的值赋为ln),同时扫描p点周围八邻域范围内的像素点,若存在未被标记的像素点,则在lm中进行标记,并放入队列中作为区域生长的生长种子点;

(c)当队列中数值不为空时,从队列中取出一个生长种子点,扫描该生长种子点附近八邻域内的像素点,若存在未被标记过的像素点,则在lm中进行标记,并放入队列中;

(d)遍历每个像素点周围八邻域内面积子区块,若遍历到当前像素点周围八邻域内的面积子区块与相邻像素点周围八邻域内的面积子区块连通,则将这两个像素点周围八邻域内的面积子区块连接起来;

(e)重复步骤c和e,直至队列为空,一个连通区域标记完毕;

(f)转到步骤b,直至整幅图像被扫描完毕,得到所有区域标记的连通区域lm和连通区域的个数ln。

需要说明的是,为了避免算法过多标记出多个较小的连通域使得连通域标记法算法执行缓慢,优选的,本发明实施例在标记连通区域前还采用区域填充算法对各个二值化图像中的封闭区域进行像素值为1的像素点填充,从而加快算法程序执行速度,获取较少大块的连通区域。

在获取连通区域个数及其面积数值之后,本发明实施例依次对连通区域的面积数值进行由大至小排序,并对相邻两个面积数值的面积差值进行统计,确定面积差值最大值对应的二个面积数值,将所述二个面积数值的平均值确定为面积筛选阈值,由于同一个视角拍摄的视频中运动目标大小相差较小,较小的点可认为是噪声所引起的干扰因素,因此把所有小于面积筛选阈值所对应的连通区域全部删除,即可得去噪点分割处理后的各个二值化图像,在一个优选的实施例中,步骤(2)中所述根据各个连通区域的面积数值大小确定面积筛选阈值,包括:

计算各个连通区域的面积数值;

将各个连通区域的面积数值存入向量vec1中;

将向量vec1中的各个面积数值按照从大到小的顺序依次排列,依次计算各相邻面积数值之间的面积差值,并将各个面积差值存入向量vec2中;

确定向量vec2中最大的面积差值所对应的二个面积数值,将所述二个面积数值的平均值确定为面积筛选阈值。

需要说明的是,向量vec1中的各个面积数值也可以按照从小到大的顺序依次排列。

通过步骤(2)的分割处理,vibe+算法处理后目标监控视频中的每帧视频图像所对应二值化图像的噪点干扰问题能够有效解决,但其依然存在拖影干扰问题。为了进一步解决二值化图像的拖影干扰问题,本发明采用改进meanshift聚类算法与碎片化卷积神经网络的融合算法,对去噪点分割处理后的各个二值化图像作进一步的去拖影分割处理,具体如步骤(3)所示。

步骤(3):对于所述目标监控视频中的每帧视频图像,根据改进meanshift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,并获取各个拖影区块在所述视频图像所对应去噪点分割处理后二值化图像的拖影位置坐标,将所述二值化图像中各个拖影位置坐标所对应像素点的像素值确定为0,得到去拖影分割后的二值化图像。

需要说明的是,传统meanshift聚类算法在计算图像像素点的漂移向量过程中容易产生误差的情况,本发明使用meanshift聚类算法计算漂移向量时,为了减小误差引入了不同核函数的均值组合模式,即从感兴趣区域中心点出发寻找目标像素点的过程不是单一的数据密度变化为导向,而是加入了以数据密度为基础计算漂移向量的综合均值核函数,构建得到改进meanshift聚类算法来降低图像像素点的漂移向量计算误差,在一个优选的实施例中,所述改进meanshift聚类算法包括:在meanshift聚类算法中引入线性核函数、多项式核函数、高斯核函数、多元二次核函数和sigmoid核函数的均值组合模式共同对视频图像进行聚类计算,得到所述视频图像对应的各个区域块图像。

其中,线性核函数的表达式为公式(1),多项式核函数的表达式为公式(2),高斯核函数的表达式为公式(3),多元二次核函数的表达式为公式(4),sigmoid核函数的表达式为公式(5):

上述公式(1)~(5)中,变量表示提取图像的特征,表示该特征被映射后的结果量,表示常数项,而表示函数的惩罚系数,该系数越大意味着核函数的值越小,反之就越大。

在一种可能的实施方式中,所述对于所述目标监控视频中的每帧视频图像,根据改进meanshift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,包括:

对于所述目标监控视频中的每帧视频图像,采用改进meanshift聚类算法对所述视频图像进行聚类,得到各个区域块图像;

提取所述视频图像所对应各个区域块图像在l*a*b颜色空间的颜色直方图,以及纹理特征texton特征直方图,根据各个区域块图像对应的颜色直方图和纹理特征texton特征直方图训练支持向量机分类器,生成得到所述视频图像所对应的阴影先验分布图;

采用碎片化卷积神经网络对所述视频图像所对应阴影先验分布图中各个区域块图像进行计算,分别得到所述视频图像所对应各个区域块图像的拖影概率预测值,所述碎片化卷积神经网络包括六个卷积层、两个池化层和一个全连接类别输出层,所述碎片化卷积神经网络的输入数据为32×32区块的区域块图像,输出数据为区域块图像为拖影的拖影概率预测值;

将所述视频图像中拖影概率预测值大于预设概率预测值的区域块图像识别为拖影区块。

需要说明的是,本发明采用的碎片化卷积神经网络在构建后,以各个训练样本图像所对应原始rgb图像和阴影先验分布图作为训练数据获取源,采用拖影区块、非拖影区块、拖影边缘区块作为三种训练图像类型,对所述碎片化卷积神经网络进行训练,得到训练后的碎片化卷积神经网络以进行使用。

其中,改进meanshift聚类算法的具体计算步骤如下:

a)对于去噪点分割处理后的每个二值化图像,在二值化图像中未被标记的图像像素点中随机选择一个点作为起始中心点center;

b)将以center为中心点,半径为radius的区域范围内出现的所有像素点的类别确定为类别c,同时,在该聚类中记录数据点出现的次数自增1;

c)以center为中心点,计算从center开始到集合m中每个元素的向量,将这些向量采用公式(1)~(5)分别计算不同核函数进行低维空间到高位空间的映射结果,在映射后形成的高位空间中计算漂移向量shift,取五种核函数计算结果的统计后形成的误差最小项作为最后的漂移向量shift的取值;

d)center=center+shift,即center沿着shift的方向移动,移动距离是采用欧式距离计算公式:,移动方向采用center的移动方向即可。

e)重复执行步骤b、c、d,重复迭代直到shift收敛,取该算法迭代到收敛时的center作为最后的执行结果,此迭代过程中遇到的点都归类到当前簇c中;

f)如果收敛时,当前簇c的center与其它已经存在的簇c2中心的距离小于阈值,那么把簇c2和簇c合并,数据点出现次数也对应合并,否则,把簇c作为新的聚类;

g)重复执行步骤a、b、c、d、e,直到二值化图像中所有图像像素点都被标记为已访问;

h)分类:根据每个类,对每个点的访问频率,取访问频率最大的那个类,作为当前点集的所属类。

为了便于理解,示出改进meanshift聚类算法与碎片化卷积神经网络融合算法消除拖影步骤示意图,如图2所示。

通过以上改进meanshift聚类算法执行后,可形成图2中a所示的聚类结果,即对目标监控视频的每一帧视频图像处理获取分割后的区域块图像a,以每个区域块图像为基础在l*a*b颜色空间提取颜色直方图,然后再提取每一视频帧的纹理特征texton直方图,训练支持向量机分类器(svm),生成分类结果图,即阴影先验分布图,该阴影先验分布图的构建过程如图2中的b所示,结果如图2中c所示。接下来,考虑基于深度卷积神经网络(cnn)结合阴影先验分布图获取精确的拖影识别结果。然而,由于训练cnn的准确率极大地依赖于大批量的带拖影标注的图像或视频数据样本,现今公开的数据集中并没有大量拖影标注图像,因此考虑采用碎片化卷积神经网络(pcnn)获取批量训练图像。

本发明所采用的拖影特征区域提取方法选用三种类型的训练图像类型:拖影区块、非拖影区块、拖影边缘区块,训练数据获取源是从原始rgb图像和阴影先验分布图融合结果中获取的,所述碎片化卷积神经网络包括六个卷积层、两个池化层和一个全连接类别输出层,所述碎片化卷积神经网络的输入数据为32×32区块的区域块图像,输出数据为区域块图像为拖影的拖影概率预测值。然而,pcnn预测的是局部拖影值,在拖影边界附近区块的预测值较差(如图2中f所示),对于这种情况,本发明在基于各区块区域面积的拖影检测算法基础上,还对pcnn进行了超参数的改进和微调,提出基于各区块边缘像素的拖影检测算法。

在一种可能的实施方式中,基于各区块边缘像素的拖影检测算法的算法步骤可以如下:

第一步,对于目标监控视频中的每帧视频图像,在根据改进meanshift聚类算法与第一次碎片化卷积神经网络的融合算法识别出该视频图像中的拖影区块,并获取各个拖影区块在视频图像所对应去噪点分割处理后二值化图像的拖影位置坐标,将二值化图像中各个拖影位置坐标所对应像素点的像素值确定为0,得到第一次去拖影分割后的二值化图像(如图2中f所示)后,根据第一次碎片化卷积神经网络计算得到的各个区域块图像为拖影的拖影概率预测值,计算得到视频图像中的各个拖影边缘区块,(这些拖影边缘区块由自然场景下的目标与拖影共同组成且具有离散性,散落在如图2中f所示的图像空间中,在一种可能的实现方式中,将拖影概率预测值大于等于第一预设概率预测值且小于等于预设概率预测值的区域块图像确定为拖影边缘区块)然后将确定出的各个拖影边缘区块再一次导入碎片化卷积神经网络进行计算,采用超参数自适应调整策略对其中的超参数,例如学习率learningrate、样本批次batch-size、卷积核尺寸convolutionalkernelsize、卷积核数量convolutionalkernelnumbers和卷积步长convolutionalstrides,然后选择其中最优的参数,输入碎片化卷积神经网络,并向碎片化卷积神经网络输入大批量无标签的拖影边缘区块进行无监督学习,由碎片化卷积神经网络输出对不同拖影边缘区块的拖影预测值。

第二步:采用聚类分析对不同拖影边缘区块的拖影预测值进行统计分析,将拖影预测值相同的各个拖影边缘区块聚拢为一类,即最小化同类拖影边缘区块之间的距离,最大化不同类拖影边缘区块之间的距离,以此为基础从中寻找最大化的拖影边缘区块分类边界,求出明显的边缘分界曲线。

第三步,采用融合约束函数r(s)对同类拖影边缘区块的图像进行边缘融合,所述融合约束函数的表达式为公式(6):

其中,m为分割区块的数量,α为固定常数项,r(s)表示所包含的区块之间的边界像素集合。

经过最后一步的区块间的边缘融合,即可完整的提取单帧视频图像中的拖影区域部分,从而在第一次去拖影分割后的二值化图像基础(如图2中f所示)上实现进一步的去拖影处理(结果如图2中h所示)。

通过上述步骤可以获取关于视频帧中的所有运动目标的拖影区域的坐标向量,记录并保存这些向量。本发明通过vibe+运动目标分割算法可以提取完整的运动目标前景图像,其中可能包含有噪点和拖影,经过步骤(2)的处理,可以剔除其中的噪点部分,记此步产生的二值图像为image1;然后,通过步骤(3)的处理,可检测出原始图像中是否包含拖影部分,检测后生成的拖影二值图像记为image2(图像尺寸与image1相同);最后,提取image2中所有像素值为“1”的像素点坐标向量,把所有出现在image1中的坐标点所对应的像素值全部置零,即可获取最终的分割结果。

为了便于理解本发明实施例对目标监控视频中各帧视频图像的处理流程,示出如图3所示的处理流程图。

步骤(4):对于去拖影分割后的每个二值化图像,计算所述二值化图像上下左右四个极值点坐标,在所述二值化图像所对应视频图像中根据所述四个极值点坐标确定运动目标图像,实现对所述目标监控视频中运动目标背景的分割。

为了更好地说明本发明实施例所带来的技术效果,取示例视频图像a和示例视频图像b进行测试分析。需要说明的是,示例视频图像a示出的图像中包括大量高光区域的图像信息,示例视频图像b示出的图像中包括大量运动状态的背景目标信息。

对于示例视频图像a,分别采用vibe算法、vibe+算法以及本发明提供的基于改进vibe+算法的运动目标背景分割方法进行运动目标背景分割处理,得到的处理效果图分别为图4中的a1、a2、a3。显然,经过vibe算法处理后,a1依然存在较多的噪点,且分割出的前景目标中包括了高光区影响的背景目标;经过vibe+算法处理后得到的a2虽然噪点现象略微减轻,但噪点现象和前景目标的错误分割现象依然严重,而经本发明提供的基于改进vibe+算法的运动目标背景分割方法处理分割后得到的a3则能够准确清晰地提取到前景运动目标图像。

对于示例视频图像b,分别采用vibe算法、vibe+算法以及本发明提供的基于改进vibe+算法的运动目标背景分割方法进行运动目标背景分割处理,得到的处理效果图分别为图5中的b1、b2、b3。显然,经过vibe算法处理后,b1依然存在较多的噪点,且分割出的前景目标中包括了大量拖影;经过vibe+算法处理后得到的b2虽然噪点现象略微减轻,但噪点现象和拖影现象依然严重,而经本发明提供的基于改进vibe+算法的运动目标背景分割方法处理分割后得到的b3则能依然够准确清晰地提取到前景运动目标图像,且不存在噪点和拖影问题。

显然,本发明提供的基于改进vibe+算法的运动目标背景分割方法相较现有vibe算法、vibe+算法,其对前景运动目标的分割准确率较高,且受视频图像内容干扰的程度小。因而具备较强的适用性。

进一步地,将本发明提供的基于改进vibe+算法的运动目标背景分割方法与传统运动目标背景分割算法作性能测试评估,得到的性能评估对比表如表一所示。

表一

通过表一示出的各项算法性能评价数据可以明确得知,本发明提供的基于改进vibe+算法的运动目标背景分割方法的分割准确率为98.58%,其分割准确率明显高于传统运动目标分割算法的分割准确率。

综上所述,本发明提供的一种基于改进vibe+算法的运动目标背景分割方法,通过对目标监控视频采用vibe+算法获取二值化图像,采用基于区域生长的连通域标记法对分割图像中各连通区域进行标记,依据边界面积块差异特征设定面积筛选阈值,将二值化图像中低于面积筛选阈值的连通区域进行删除;并对meanshift聚类算法改进后,与碎片化卷积神经网络算法融合对分割后的二值化图像中拖影区块、非拖影区块和拖影边缘区块分类识别,标记拖影区块在二值化图像中位置坐标,基于拖影检测结果对二值化图像中各个拖影区域进行快速删除,获取最终的分割结果,达到提高对目标监控视频运动目标的分割准确度和分割效率的技术效果。

需要说明的是,本发明表一中测试用的各传统运动目标背景分割算法所参照文献分别为:

光流法算法参考文献:张艳国,李擎,于飞,刘恒志.基于多特征融合的空对地目标检测和追踪方法[j].电光与控制,2019,26(6):7-11.

分水岭算法参考文献:gamarra,m.,zurek,e.,escalante,h.j.,hurtado,l.,&san-juan-vergara,h.(2019).splitandmergewatershed:atwo-stepmethodforcellsegmentationinfluorescencemicroscopyimages.biomedicalsignalprocessingandcontrol,53(4):23-29.

背景差分法参考文献:zhang,q.y.,lu,j.c.,wei,h.y.,zhang,m.y.,&duan,h.x.(2015).dynamichandgesturesegmentationmethodbasedonunequal-probabilitiesbackgrounddifferenceandimprovedfcmalgorithm.internationaljournalofinnovativecomputinginformationandcontrol,11(5),1823-1834.

帧差法参考文献:kim,d.,&choi,j.(2019).indirecttime-of-flightdepthsensorwithtwo-stepcomparisonschemefordepthframedifferencedetection.sensors,19(17):455-462.

水平集法参考文献:

alarifi,a.,&alwadain,a.(2019).computer-aidedcancerclassificationsystemusingahybridlevel-setimagesegmentation.measurement,148.

chen,y.j.,&wu,m.l.(2019).alevelsetmethodforbrainmrimagesegmentationunderasymmetricdistributions.signalimageandvideoprocessing,13(7),1421-1429.

背景更新恢复法参考文献:chen,t.y.,chen,t.h.,wang,d.j.,&chiou,y.c.(2009).real-timevideoobjectsegmentationalgorithmbasedonchangedetectionandbackgroundupdating.internationaljournalofinnovativecomputinginformationandcontrol,5(7),1797-1810.

vibe算法参考文献:barnich,o.,&vandroogenbroeck,m.(2011).vibe:auniversalbackgroundsubtractionalgorithmforvideosequences.ieeetransactionsonimageprocessing,20(6),1709-1724.

vibe+算法参考文献:

dou,j.f.,&li,j.x.(2013).movingobjectdetectionbasedonimprovedvibeandgraphcutoptimization.optik,124(23),6081-6088.

kryjak,t.,komorkiewicz,m.,&gorgon,m.(2014).real-timeimplementationofforegroundobjectdetectionfromamovingcamerausingthevibealgorithm.computerscienceandinformationsystems,11(4),1617-1637.

虽然,前文已经用一般性说明、具体实施方式及试验,对本发明做了详尽的描述,但在本发明基础上,可以对之进行修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。

本领域技术人员在考虑说明书及实践这里的发明的后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1