本发明属于计算机视觉技术领域,具体涉及一种基于检测的渡口车辆跟踪方法。
背景技术:
基于视觉的目标跟踪是计算机视觉领域的一个主要方向,其过程是在视频序列中给定目标在首帧中的位置和大小,然后估计该目标在后续帧中的位置和大小。由于目标遮挡,外观形变,光照变化和背景复杂等因素,基于视觉的目标跟踪仍是一个挑战性的问题。基于视觉的目标跟踪方法主要分为传统的和基于深度学习的两类。近年来,传统方法中的相关滤波器的方法得到了研究者的重视。2010年bolme等人首次将相关滤波器用于视觉目标跟踪。henriques等人使用基于核空间映射原理的核相关滤波器实现跟踪。danelljan等人提出带有尺度估计的视觉跟踪。由于这些方法都是在一个范围内盲目的搜索,其计算代价比较大。另一方面,随着深度学习的兴起,深度学习也被引入到目标跟踪中。chaoma等人和danelljan等人将深度网络中低层的空间信息和高层的语义信息使用到视觉目标跟踪器中,提高跟踪效果。深度特征相比于传统特征具有更好的鉴别力,特征表述能力更强。然而深度特征的计算和在领域内的搜索都会导致算法的计算代价很大。综上所述,现有的视觉目标跟踪技术都是在一个范围内采用穷举得方式搜索和匹配目标,存有计算量大的问题,其容易跟踪出错。因此,一个减少搜索范围的快速有效的跟踪方法,对跟踪技术在视觉中的有效应用非常重要。
技术实现要素:
本发明的目的在于克服上述现有技术之不足,提出了一种基于车辆检测的渡口车辆跟踪方法,利用安装在渡口路边的监控摄行头,通过基于预测的快速车辆检测方法得到车辆区域,接着基于检测到的车辆区域实现跟踪,具备速度快,准确性好,鲁棒性高,易于推广的特点,该方法具体由以下技术方案实现:
所述基于检测的渡口车辆跟踪方法包括如下步骤:
步骤1)获取安装在渡口路边的摄像头的视频数据;
步骤2)通过车辆检测模型检测得到所述视频数据的每帧图像中每一车辆的车辆区域,所述车辆区域包括该车辆的外接矩形框的位置和大小;
步骤3)根据检测得到的当前帧图像中的各车辆区域,计算每一车辆外接矩形框的直方图特征;
步骤4)计算当前帧图像中每一车辆的直方图特征与记录在车辆跟踪列表中的每一车辆的直方图特征的特征距离,具有最小的特征距离且距离小于阈值t的对应两车辆,是当前帧图像中的车辆对应之前图像帧中车辆的相同车辆,否则当前帧图像中的相应车辆是新出现的车辆。
步骤5)将判定为新出现的车辆记录到车辆跟踪列表中;若该车辆之前已记录则更新车辆跟踪列表中的对应记录。
步骤6)对于同一辆车在当前图像上用相同颜色标识矩形框。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,所述摄像头获取的视频数据为yuv420格式,将该视频数据格式转换成1920*1080的rgb彩色图像格式后,通过车辆检测模型的检测。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,车辆检测模型由yolo神经网络在数据集imagenet上训练得到。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,所述直方图特征包括颜色直方图特征和边缘直方图特征。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,所述边缘直方图特征是在车辆区域子图像上提取canny边缘算法特征后,归一化到0-255,取整后计算直方图得到。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,所述车辆区域的特征距离计算是在每个区域的一个局部领域内进行。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,所述车辆的直方图特征的特征距离是bhattacharyya距离。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,所述车辆的直方图特征的特征距离计算限于通过车辆检测模型检测得到的各个车辆区域。
所述的基于检测的渡口车辆跟踪方法的进一步设计在于,所述具有最小的特征距离且距离小于阈值t的对应两车辆可以有多对。
本发明的有益效果:
本发明的基于检测的渡口车辆跟踪方法可以在渡口对上下渡船的车辆实现自动的检测和跟踪,无需人工干预。并且该方法采用的算法鲁棒性好,准确性高,适合不同的光照条件,对摄像头分辨率要求不高,移植性好,实用性强。
附图说明
图1为本发明方法流程图。
图2为施例中摄像头采集的白天图像。
图3为施例中摄像头采集的夜晚图像。
图4为实施例中白天检测到的车辆图像。
图5为实施例中夜晚检测到的车辆图像。
图6为实施例中白天跟踪的车辆图像(同一个颜色矩形框代表跟踪的是同一辆车)。
图7为实施例中夜晚跟踪的车辆图像(同一个颜色矩形框代表跟踪的是同一辆车)。
具体实施方式
以下结合附图对本发明做进一步详细说明。
本实施例是在如图1-3所示的渡口施行,并从安装在该渡口路边的摄像头获取从该渡口上下渡船的车辆,并从这些车辆中跟踪所需要找寻的车辆。具体步骤如下:
第一步,获取安装在渡口路边的摄像头的视频数据。
本实施例中的摄像头获取的数据是yuv420格式,要将该视频数据转换成1920*1080的rgb彩色图像格式后,再进行后续的图像处理。
第二步,通过车辆检测模型得到每个车辆的位置和大小。
在对于上述转换成1920*1080的rgb彩色图像格式的每帧图像上,通过车辆检测模型得到上述格式数据的每帧图像中每一车辆的车辆区域,该车辆区域包括该车辆的外接矩形框的位置和大小,如图4、图5所示。
车辆区域的检测模型是一个公开的物体检测器yolo。本实施例使用公开的数据集imagenet训练模型,当有新的rgb彩色图像时,只要将图像输入到车辆区域检测模型中,得到图像中每个车辆对应的外接矩形框(包含中心点的x、y,长w,宽h)和相应的概率。本实施例选取概率最大且概率大于0.3的车辆区域作为检测结果。
因此,通过车辆检测模型得到上述每帧图像中框围该帧图像内每一车辆的外接矩形框的位置和尺寸。矩形框的位置是以矩形框中心点坐标(x,y)来记录并进行数据处理,矩形框的尺寸(大小)是以矩形框的长与宽(长w、宽h)来记录并进行数据处理。
在本步骤中,每处理好一帧图像都对该帧图像按序标号,而在处理前要检测图像的序号,因此如若是第一帧,则跳到步骤1,否则进入步骤4。
第三步,计算每个车辆外接矩形框的直方图特征。
根据所述的当前帧车辆检测结果,结合前一帧图像的车辆检测结果,计算每个车辆外接矩形框的直方图特征。本实施例的直方图特征包括颜色直方图特征和边缘直方图特征,并且边缘直方图特征是在车辆区域子图像上提取canny边缘算法特征后,归一化到0-255,取整后计算边缘子图像的直方图得到的。
第四步,直方图特征的特征距离。
计算当前帧图像中每一车辆的直方图特征与记录在车辆跟踪列表中的每一车辆的直方图特征的特征距离,找出最小的特征距离,且距离小于阈值t,则判定当前帧图像中的相应车辆对应之前图像中某个车辆,即是同一个车辆;否则判断当前帧图像中的相应车辆是新出现的车辆。
车辆的特征距离计算是在每个区域的一个局部领域内进行,区域的中心就是车辆区域的中心,区域的长、宽分别为扩大到原来的1.5倍。
车辆检测区域的特征距离使用通用的bhattacharyya距离。
车辆的匹配和跟踪只基于步骤(2)中检测到的各个车辆区域。
第五步,记录和更新车辆跟踪列表。
将判定为新出现的车辆记录到车辆跟踪列表中;若该车辆之前已记录则更新车辆跟踪列表中的对应记录。车辆跟踪列表中的每个记录保存每个车辆的直方图特征、外接矩形框信息、外接矩形框的颜色。新出现车辆的外接矩形框会随机设置一个颜色;已记录的车辆外接矩形框的颜色保持不变,不作更新。车辆跟踪列表保存多个车辆的信息,可以实现多个车辆的同时跟踪。
第六步,用相同颜色矩形框标识相同车辆。
在当前图像上对于同一辆车,用相同颜色矩形框标识。如图6、图7所示,分别用同一种颜色矩形框标识相同的车辆。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。