基于多级过滤模型的密集场景人群分群检测算法的制作方法

文档序号:11951919阅读:413来源:国知局

本发明涉及图像分析技术,特别是涉及一种基于多级过滤模型的密集场景人群分群检测算法的技术。



背景技术:

密集场景中的人群运动分析、群体事件及异常行为检测是当前智能监控研究领域的热点课题,也是视频监控系统和智能交通研究的重要方向之一。在维护社会治安、提高城市交通规划的科学性等方面都有重要的研究价值。

通常密集人群运动场景中,人群普遍表现为一种无规律的运动组合形式,即无序运动。这种复杂的特性大大地增加了研究的难度,因此之前也较少有研究成果涉及。针对密集场景的传统分析思路为将场景看作目标的运动集合,以实现提取目标轨迹及行为识别的目的。其处理方法有两类,一类是基于目标中心对象的处理方法,另一类是基于场景的处理方法。

基于目标中心对象的处理方法将密集人群看作大量个体的集合,从个体分析角度出发提取其速度和方向,然后采用加权的连接图或由底向上的多层聚类方法实现群体检测;这种算法的有效性保证条件为目标聚集密度低,目标个体的像素分辨率高。但无序运动密集场景中人群之间遮挡非常严重且遮挡关系通常未知,导致目标的正确分割成为一个难点,因此分群效果较差。

基于场景的处理方法主要有光流法、动态纹理和网格粒子等,这些算法对于密集人群中存在严重遮挡问题的场景及复杂运动模式场景的处理效果较差,而且还需要对单个行人进行分割以及样本训练,需要事先提供一些先验信息;而且邻域特征点的稳定性较差,分群检测效果有待进一步提高。



技术实现要素:

针对上述现有技术中存在的缺陷,本发明所要解决的技术问题是提供一种对密集人群中存在严重遮挡问题的场景及复杂运动模式场景的处理效果好,而且不需要对单个行人进行分割以及样本训练,不需要事先提供先验信息;而且邻域特征点的稳定性好,分群检测效果好的基于多级过滤模型的密集场景人群分群检测算法。

为了解决上述技术问题,本发明所提供的一种基于多级过滤模型的密集场景人群分群检测算法,其特征在于,具体步骤如下:

S1)对目标视频图像,先采用混合高斯模型对每一个图像帧进行背景建模,再采用背景差法对每一个图像帧的前景、背景进行分割,从而得到每一个图像帧的前景区域;

S2)对目标视频图像,采用KLT跟踪算法从每一个图像帧的前景区域中提取特征点,从而得到每一个图像帧的特征点坐标集;

S3)对每一个图像帧的特征点坐标集,将该特征点坐标集中的各特征点逐一的作为目标点,并按照步骤S3.1至S3.9的方法获取每个目标点的初始同群点集,最终获得的各个目标点的初始同群点集构成该图像帧的初始同群点集序列;

获取目标点的初始同群点集的步骤如下:

S3.1)从ζt中取一个特征点作为目标点i,并设定为目标点i的最近邻域,其中,ζt为目标视频图像中的第t个图像帧的特征点坐标集;

S3.2)计算目标点i与ζt中的各特征点的高斯权值,具体计算公式为:

<mrow> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> <mi>r</mi> </mfrac> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mi>r</mi> </mfrac> <mo>)</mo> </mrow> </mrow>

其中,wi,j为目标点i与特征点j的高斯权值,j∈ζt且j≠i,(xi,yi)为目标点i的坐标,(xj,yj)为特征点j的坐标,r的取值为20;

S3.3)对ζt中除目标点i之外的每个特征点实施时空距离邻近过滤,过滤方法为:

对ζt中的任意一个特征点j,j∈ζt且j≠i,如果有wi,j ≥0.5wmax,则将特征点j归入其中的wmax为目标点i与ζt中的其它特征点的高斯权值中的最大值;

S3.4)设定为目标点i在t→t+d之间的邻域交集,其中的d=3;

S3.5)计算中的各个特征点与目标点i从t→t+d的速度夹角,具体计算公式为:

<mrow> <msub> <mi>&theta;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>d</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>&tau;</mi> <mo>=</mo> <mi>t</mi> </mrow> <mrow> <mi>t</mi> <mo>+</mo> <mi>d</mi> </mrow> </munderover> <mi>a</mi> <mi>b</mi> <mi>s</mi> <mrow> <mo>(</mo> <msubsup> <mi>&theta;</mi> <mi>i</mi> <mi>&tau;</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&theta;</mi> <mi>j</mi> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> </mrow>

如果且则令

如果且则令

如果或则令

如果且则

如果且则

如果或则

其中,θi,j为特征点j与目标点i从t→t+d的速度夹角,d=3,为特征点j在目标视频图像中的第τ个图像帧的速度方向,为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;为目标点i在目标视频图像中的第τ个图像帧的速度方向,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;

S3.6)对于中的任意一个特征点j,如果有θi,j≥45或(360-θi,j)≥45,则将该特征点j从中剃除;

S3.7)计算中的每个特征点与目标点i从t→t+d的运动相关性,具体计算公式为:

<mrow> <msub> <mi>C</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>d</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>&tau;</mi> <mo>=</mo> <mi>t</mi> </mrow> <mrow> <mi>t</mi> <mo>+</mo> <mi>d</mi> </mrow> </munderover> <mfrac> <mrow> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>&CenterDot;</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mo>&CenterDot;</mo> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> <mo>|</mo> <mo>|</mo> </mrow> </mfrac> </mrow>

<mrow> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> </mrow>

<mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>

<mrow> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>j</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>y</mi> <mi>j</mi> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> </mrow>

<mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>

其中,Ci,j为特征点j与目标点i从t→t+d的运动相关性,d=3,为目标点i在目标视频图像中的第τ个图像帧的速度,为特征点j在目标视频图像中的第τ个图像帧的速度,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;

S3.8)设定Cth=0.6,对于中的任意一个特征点j,如果有Ci,j≤Cth,则将该特征点j从中剃除;

S3.9)将定义为目标点i的初始同群点集

S4)对每个图像帧的初始同群点集序列,将该初始同群点集序列中的各个初始同群点集按照特征点数目降序排列;

S5)对每个图像帧的初始同群点集序列,按照步骤S5.1至步骤S5.3的方法对该初始同群点集序列中的各初始同群点集进行分类标记;

S5.1)令K=1,L=1,将第K个初始同群点集中的所有特征点标记为L;

S5.2)令K=K+1;

如果第K个初始同群点集中的所有特征点都未标记过,则令L=L+1,并将第K个初始同群点集中的所有特征点都标记为L;

如果第K个初始同群点集中至少有一个特征点已标记为L,则将第K个初始同群点集中的所有特征点都标记为L;

S5.3)重复步骤S5.2,直至初始同群点集序列中的各初始同群点集均标记完毕;

S6)对每个图像帧的特征点坐标集,把分类标记相同的特征点归为同一类群体,并在该图像帧中把分类标记相同的特征点用相同的颜色进行标示,并在该图像帧中把分类标记相异的特征点用相异的颜色进行标示,从而实现分群检测。

本发明提供的基于多级过滤模型的密集场景人群分群检测算法,具有以下有益效果:

1)采用运动目标人群上的特征点的运动状态估计人群的运动状态,可以避免密集人群中严重的遮挡问题,对复杂运动模式场景的处理效果好;

2)不需要对单个行人进行分割以及样本训练,也不需要任何先验信息;

3)时空距离邻近过滤中最近邻域的特征点数能根据相邻距离特征点的最短距离进行自动调节,且特征点的邻域选择连续视频图像取得的邻域交集,保证了邻域特征点的稳定性;

4)算法不但考虑了群体运动的相关性,而且考虑了速度方向一致性,分群检测效果好。

附图说明

图1是本发明实施例的基于多级过滤模型的密集场景人群分群检测算法的原理图。

具体实施方式

以下结合附图说明对本发明的实施例作进一步详细描述,但本实施例并不用于限制本发明,凡是采用本发明的相似结构及其相似变化,均应列入本发明的保护范围,本发明中的顿号均表示和的关系。

如图1所示,本发明实施例所提供的一种基于多级过滤模型的密集场景人群分群检测算法,其特征在于,具体步骤如下:

S1)对目标视频图像,先采用混合高斯模型对每一个图像帧进行背景建模,再采用背景差法对每一个图像帧的前景、背景进行分割,从而得到每一个图像帧的前景区域;

S2)对目标视频图像,采用KLT跟踪算法从每一个图像帧的前景区域中提取特征点,从而得到每一个图像帧的特征点坐标集;

S3)对每一个图像帧的特征点坐标集,将该特征点坐标集中的各特征点逐一的作为目标点,并按照步骤S3.1至S3.9的方法获取每个目标点的初始同群点集,最终获得的各个目标点的初始同群点集构成该图像帧的初始同群点集序列;

获取目标点的初始同群点集的步骤如下:

S3.1)从ζt中取一个特征点作为目标点i,并设定为目标点i的最近邻域,其中,ζt为目标视频图像中的第t个图像帧的特征点坐标集;

S3.2)计算目标点i与ζt中的各特征点的高斯权值,具体计算公式为:

<mrow> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> <mi>r</mi> </mfrac> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>x</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>y</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> <mi>r</mi> </mfrac> <mo>)</mo> </mrow> </mrow>

其中,wi,j为目标点i与特征点j的高斯权值,j∈ζt且j≠i,(xi,yi)为目标点i的坐标,(xj,yj)为特征点j的坐标,r为常数,r的典型值20;wi,j将随着距离dist(i,j)增大而减小,反之则增大,这也就意味人群越密集,wi,j越大;

S3.3)对ζt中除目标点i之外的每个特征点实施时空距离邻近过滤,过滤方法为:

对ζt中的任意一个特征点j,j∈ζt且j≠i,如果有wi,j ≥0.5wmax,则将特征点j归入其中的wmax为目标点i与ζt中的其它特征点的高斯权值中的最大值;

得到的中,特征点的个数能根据wmax自动调节,wmax是目标点i与距其最近的特征点之间的高斯权值;

S3.4)设定为目标点i在t→t+d之间的邻域交集,其中的d=3;t→t+d是指目标视频图像的第t个图像帧至第t+d个图像帧;

S3.5)计算中的各个特征点与目标点i从t→t+d的速度夹角,具体计算公式为:

<mrow> <msub> <mi>&theta;</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>d</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>&tau;</mi> <mo>=</mo> <mi>t</mi> </mrow> <mrow> <mi>t</mi> <mo>+</mo> <mi>d</mi> </mrow> </munderover> <mi>a</mi> <mi>b</mi> <mi>s</mi> <mrow> <mo>(</mo> <msubsup> <mi>&theta;</mi> <mi>i</mi> <mi>&tau;</mi> </msubsup> <mo>-</mo> <msubsup> <mi>&theta;</mi> <mi>j</mi> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> </mrow>

如果且则令

如果且则令

如果或则令

如果且则

如果且则

如果或则

其中,θi,j为特征点j与目标点i从t→t+d的速度夹角,d=3,为特征点j在目标视频图像中的第τ个图像帧的速度方向,为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;为目标点i在目标视频图像中的第τ个图像帧的速度方向,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;

S3.6)对于中的任意一个特征点j,如果有或(360-θi,j)≥45,则将该特征点j从中剃除;

S3.7)计算中的每个特征点与目标点i从t→t+d的运动相关性,具体计算公式为:

<mrow> <msub> <mi>C</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>d</mi> <mo>+</mo> <mn>1</mn> </mrow> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>&tau;</mi> <mo>=</mo> <mi>t</mi> </mrow> <mrow> <mi>t</mi> <mo>+</mo> <mi>d</mi> </mrow> </munderover> <mfrac> <mrow> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>&CenterDot;</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> </mrow> <mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mo>&CenterDot;</mo> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> <mo>|</mo> <mo>|</mo> </mrow> </mfrac> </mrow>

<mrow> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mi>i</mi> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>y</mi> <mi>i</mi> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> </mrow>

<mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>i</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>i</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>

<mrow> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <mrow> <mo>(</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>x</mi> <mi>j</mi> <mi>&tau;</mi> </msubsup> <mo>,</mo> <msubsup> <mi>y</mi> <mi>j</mi> <mrow> <mi>&tau;</mi> <mo>+</mo> <mn>1</mn> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>y</mi> <mi>j</mi> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> </mrow>

<mrow> <mo>|</mo> <mo>|</mo> <msubsup> <mi>v</mi> <mi>&tau;</mi> <mi>j</mi> </msubsup> <mo>|</mo> <mo>|</mo> <mo>=</mo> <msqrt> <mrow> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>x</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mrow> <mo>(</mo> <msubsup> <mi>v</mi> <msub> <mi>y</mi> <mi>j</mi> </msub> <mi>&tau;</mi> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>

其中,Ci,j为特征点j与目标点i从t→t+d的运动相关性,d=3,为目标点i在目标视频图像中的第τ个图像帧的速度,为特征点j在目标视频图像中的第τ个图像帧的速度,为目标点i在目标视频图像中的第τ个图像帧的坐标,为目标点i在目标视频图像中的第τ+1个图像帧的坐标;为特征点j在目标视频图像中的第τ个图像帧的坐标,为特征点j在目标视频图像中的第τ+1个图像帧的坐标;

S3.8)设定Cth=0.6,对于中的任意一个特征点j,如果有Ci,j≤Cth,则将该特征点j从中剃除;

S3.9)将定义为目标点i的初始同群点集中的所有特征点均与目标点i同群;

S4)对每个图像帧的初始同群点集序列,将该初始同群点集序列中的各个初始同群点集按照特征点数目降序排列;

S5)对每个图像帧的初始同群点集序列,按照步骤S5.1至步骤S5.3的方法对该初始同群点集序列中的各初始同群点集进行分类标记;

S5.1)令K=1,L=1,将第K个初始同群点集中的所有特征点标记为L;

S5.2)令K=K+1;

如果第K个初始同群点集中的所有特征点都未标记过,则令L=L+1,并将第K个初始同群点集中的所有特征点都标记为L;

如果第K个初始同群点集中至少有一个特征点已标记为L,则将第K个初始同群点集中的所有特征点都标记为L;

S5.3)重复步骤S5.2,直至初始同群点集序列中的各初始同群点集均标记完毕;

S6)对每个图像帧的特征点坐标集,把分类标记相同的特征点归为同一类群体,并在该图像帧中把分类标记相同的特征点用相同的颜色进行标示,并在该图像帧中把分类标记相异的特征点用相异的颜色进行标示,从而实现分群检测。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1