n时刻的两个亮度值,并分别简记为表示检测到以下的事件1次: 坐标位置为(i,j)的像素点亮度值从时刻的亮度等级0:跳变为^时刻的亮度等级θ 2; Σ Ε (0:402)是统计视频画面中所有像素点从时刻到tn时刻亮度值从Θ:跳变为θ2的次数,并 将检测到的亮度值从Θ:跳变为θ 2的次数记录在tn时刻的方阵Η的对应单元11(0^02) | tn中;方 阵Ζ^,ΘΟΙ tN表示在上述视频样本的tjljtN时间段内|〇1的累加,它记录了整个 视频样本时间内检测到的所有像素点的亮度值从Θ:跳变为θ 2的总次数;最后,将Ζ(Θ:,θ2) | tN 的值归一化为[0,1 ]之间的概率值,即得到二维概率直方图F (θ:,θ2) I tN,F (θ:,θ2) I tN为方 阵,其大小等于视频所具有的亮度等级数的平方;
[0044] 如果关0,则视频中任意像素点上的亮度等级变化(θ"θ2)可判定为正 常像素值波动;反之,如果F(θ:,θ2) | tN=0,则视频中任意像素点上的亮度等级变化(0:402) 可判定为异常像素值波动,由此,根据即可确定出视频像素值的正常波动范围;
[0045] S24:根据坐标位置为(i,j)的像素点在tN后的下一个连续时刻切+1的当前亮度值, 计算出坐标位置为(i,j)的像素点在t N+1时刻的视频背景模型最佳估计值B(i,j)tN+1,计算 公式如下:
[0046] B(i,j) | tN+i = B(i,j) | tN+[I(i,j) | tN+i_B(i,j) | tN] XFOhQ〗)| tN,取9i = B(i,j) tN,02 = I(i,j) |tN+l,
[0047] 其中,1(1」)|如+1代表坐标位置为(1,」)的像素点在如后的下一个连续时刻如+1的 当前亮度值,B( i,j) I tN代表坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计 值,是在步骤S23中计算出的二维概率直方图,此时FOUdltN被作为一个查询 表使用,给定任一组θι和值,就可以查询出视频中亮度等级从Θ:跳变到0 2的概率值,在上 述公式中,取9i = B(i,j) |tN,02 = I(i,j) |tN+i;
[0048] 计算出视频画面中所有像素点在tN+1时刻的视频背景模型最佳估计值,并保存,用 于更新视频画面中所有像素点在下一个时刻t N+2的视频背景模型最佳估计值;
[0049] 坐标位置为(i,j)的像素点在tN+2时刻的视频背景模型最佳估计值B(i,j) | tN+2 = B (i,j) |tN+i+[I(i,j) |tN+2_B(i,j) |tN+i] XFOhQ〗)|tN,取9i = B(i,j) |tN+i,02 = I(i,j) |tN+2, 依此类推,实时计算出当前最新的视频画面中所有像素点的视频背景模型最佳估计值,tN 时刻之后的二维概率直方图都为tN,在计算最新的视频背景模型最佳估计值时, 始终使用I tN作为查询表,即计算视频背景模型最佳估计值公式中的二维概率直方 图始终为不变。
[0050] S25:实时更新视频画面中所有像素点的视频背景模型最佳估计值,建立视频中场 景的背景模型,该背景模型包括二维概率直方图和实时更新的所有像素点的视 频背景模型最佳估计值。
[0051] 通过本方法得到的背景模型中的二维概率直方图大小等于视频所具 有的亮度等级数的平方,背景模型中的所有像素点的视频背景模型的最佳估计值图像B(i, j)大小与视频的一帧相同,由于视频中的亮度等级数量远小于像素点数量,因此克服了传 统的逐个像素点背景建模法运算及存储消耗大、实时性不佳的问题。
[0052]将坐标位置为(i,j)的像素点在tN+1时刻的当前亮度值θ2 = I (i,j) | tN+1和在tN时刻 的视频背景模型最佳估计值9i = B(i,j) |tN代入二维概率直方图FOiA) |tN,如果F%%) tN关0,则表示坐标位置为(i,j)的像素点在切+1时刻的当前亮度值正常,如果 =〇,则表示坐标位置为(i,j )的像素点在tN+1时刻的当前亮度值异常。即在tN+1时刻坐标(i, j)处像素点的亮度值的正常波动范围包含的值可由集合L表示:= |tN矣 0},其中0i = B(i,j) |tN。
[0053] 二维概率直方图F(θ:,θ2) I tN如图2所示,当视频画面中某个像素点在tN+i时刻的亮 度值为118,在t N时刻的视频背景模型最佳估计值为120,查询二维概率直方图F( θ:,θ2) I tN 得到F( θ:,θ2) I tN=0.074,所以该像素点在tN+2时刻的亮度值正常。
[0054] 在具有静态背景的高分辨率视频中,具有相似或相同背景模型的所有像素点均可 用少量基于亮度等级的背景模型进行描述。换句话说,仅通过构建少量基于视频亮度等级 的背景模型,即可描述此类视频中的所有像素点的动态性规律与特征。由于一个视频中的 亮度等级数量远小于像素点个数且与像素点个数无关,因此基于视频亮度等级所构建的背 景模型数量也远小于由逐个像素点建模法所构建的背景模型数量。例如,目前绝大多数百 万甚至千万分辨率的数字相机输出的均是8位深度的数字视频,由于2的8次方为256,因此 这类视频都仅有256个亮度等级。如果对上述高分辨率视频采用逐个像素点建模法,必须要 构建并存储百万或千万个背景模型,而根据之前的分析这些背景模型中其实存在大量的冗 余。然而,如果采用基于视频亮度等级的建模方法,对整个视频的所有像素点仅需构建并存 储256个背景模型,而且理论上无冗余。
【主权项】
1. 一种面向高分辨率视频的高效背景建模方法,其特征在于,包括以下步骤: S1:对视频数据进行处理,将视频转化为灰度化视频; S2:基于灰度化视频的亮度等级建立视频中场景的背景模型。2. 根据权利要求1所述一种面向高分辨率视频的高效背景建模方法,其特征在于:所述 步骤S1中将视频转化为灰度化视频采用以下公式:Gray = (R X 30+G X 59+B X 11+50 )/100, 其中,R代表视频中红色彩色通道的像素值,G代表视频中绿色彩色通道的像素值,B代表视 频中蓝色彩色通道的像素值,Gray代表进行色彩转化后像素点的灰度值,也称亮度值。3. 根据权利要求1所述一种面向高分辨率视频的高效背景建模方法,其特征在于,所述 步骤S2包括以下步骤: S21:从整体视频中选取出起始时间七到结束时间tN的一段连续时间里的视频样本; S22:统计七到tN时间段内在坐标位置为(i,j)的像素点上复现频率最高的亮度值,将该 亮度值作为坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计值B( i,j) | tN; S23:检测视频画面中坐标位置为(i,j)的像素点从时刻到tn时刻亮度值从Θ:跳变为 Θ2的次数,θι= I(i,j) I tn-1,02 = I (i,j) I tn,I (i,j) I tn-1和I (i,j) I tn分别代表视频中坐标位 置为(i,j)的像素点在tn-4Ptn时刻的两个亮度值,统计视频画面中所有像素点在七到如时 间段内亮度值从 9!跳变为02的总次数,记录在tN时刻的方阵Ζ(Θ:,θ2) | tN中,将Ζ(Θ:,θ2) | tN的 值归一化为[〇,1 ]之间的概率值,即得到二维概率直方图F(θ:,θ2) I tN; S24:根据坐标位置为(i,j)的像素点在tN后的下一个连续时刻tN+1的当前亮度值,计算 出坐标位置为(i,j)的像素点在tN+1时刻的视频背景模型最佳估计值B(i,j)|tN+1,计算公式 如下: B(i,j) | tN+i = B(i,j) | tN+[I(i,j) | tN+i_B(i,j) | tN] | tN,取9i = B(i,j) | ?ν,Θ2 =I (i,j) I tN+i, 其中,1(1」)|切+1代表坐标位置为(1,」)的像素点在如后的下一个连续时刻如+1的当前 亮度值,B( i,j) I tN代表坐标位置为(i,j)的像素点在tN时刻的视频背景模型最佳估计值; 计算出视频画面中所有像素点在t N+1时刻的视频背景模型最佳估计值,并保存,用于更 新视频画面中所有像素点在下一个时刻tN+2的视频背景模型最佳估计值; S25:实时更新视频画面中所有像素点的视频背景模型最佳估计值,建立视频中场景的 背景模型,该背景模型包括二维概率直方图和实时更新的所有像素点的视频背 景模型最佳估计值。4. 根据权利要求3所述一种面向高分辨率视频的高效背景建模方法,其特征在于:所述 步骤S21中视频样本的持续时间大于等于5秒。5. 根据权利要求3所述一种面向高分辨率视频的高效背景建模方法,其特征在于:将坐 标位置为(i,j)的像素点在tN+1时刻的当前亮度值θ 2 = I (i,j) | tN+1和在tN时刻的视频背景模 型最佳估计值9i = B(i,j) | tN代入二维概率直方图FOiA) | tN,如果F%,9〗)| tN关0,则表示 坐标位置为(i,j)的像素点在如+1时刻的当前亮度值正常,如果 位置为(i,j)的像素点在tN+1时刻的当前亮度值异常。
【专利摘要】本发明公开了一种面向高分辨率视频的高效背景建模方法。它包括以下步骤:对视频数据进行处理,将视频转化为灰度化视频;基于灰度化视频的亮度等级建立视频中场景的背景模型。本发明能够在不增加任何软硬件计算资源的条件下,高效地实现对固定场景的高分辨率视频的背景建模,克服了传统逐个像素点建模法所导致的计算冗余和存储冗余问题,降低了建模运算量,提高了计算效率,减小了存储资源的消耗。
【IPC分类】H04N5/14, G06T7/20
【公开号】CN105574896
【申请号】CN201610072455
【发明人】张睿, 童玉娟
【申请人】衢州学院
【公开日】2016年5月11日
【申请日】2016年2月1日