本发明涉及城市交通数据处理,具体是一种基于分割可跨越车道分界线的多视角交通参数提取方法。
背景技术:
1、随着大规模多源异构传感设备的广泛应用,视频检测器因其多样性、易部署性,已超越传统的地感线圈等交通检测手段,成为现代路网数据采集体系中的核心组件。相较于静态图像,视频检测器所提供的数据具备独特的高并发二维时间序列特性,这种特性源自于连续帧间丰富的时空信息,故而视频检测宏微观参数提取成为研究方向之一。然而,鉴于构成视频的各帧图像呈现出复杂的分布特征与显著的质量波动,如何从中高效精确地提取高价值密度的交通参数,构成了一个严峻的技术挑战。
2、河谷一种基于分割可跨越车道分界线的多视角交通参数提取方法具有广泛的应用前景。首先,该方法能够提高交通流量预测的准确性,优化交通信号控制策略,从而提升交通管理效率;其次,通过对微观数据的详细分析,可以识别潜在的高风险区域,实现实时事故检测与响应,增强交通安全性;最后,构建的宏微观数据集为智能交通系统的开发提供了高质量的数据支持,特别在机器学习模型训练和自动驾驶技术发展方面发挥重要作用;因此,本发明在提高河谷城市交通管理效率、增强交通安全、支持智能交通系统开发以及推动城市规划和环境保护等方面具有重要的实用价值。
3、视频关键宏微观数据集构建方法,不仅要求算法能够准确辨识平均速度,还需捕捉瞬时速度的细微变化,这无疑加大了检测的复杂度。其中,交通车速的提取,作为交通视频参数提取中的一个关键环节,其难度在于需要同时兼顾速度的动态性和全面性,因此一直被视为该领域的研究热点与技术瓶颈。面对这一挑战,深入探究并优化视频分析算法,以提升车速、流量等关键参数的提取精度与效率,成为了推动智能交通系统发展的迫切需求。
4、本发明提出了一种基于河谷一种基于分割可跨越车道分界线的多视角交通参数提取方法,该方法通过分割可跨越车道分界线,能够有效提高交通宏微观参数提取的准确性和可靠性。
技术实现思路
1、本发明的目的在于提供一种基于分割可跨越车道分界线的多视角交通参数提取方法,以解决上述背景技术中提出的问题。
2、为实现上述目的,本发明提供如下技术方案:
3、一种基于分割可跨越车道分界线的多视角交通参数提取方法,包括以下步骤:
4、s1:使用改进后的yolov5和deepsort算法,以提升提取车辆像素位置的准确度,该改进方法的具体步骤如下:
5、step1:改进k-means++算法优化锚框(yolov5)算法,在k-means的基础上改进初始点的选择方式,即初始聚类中心之间的相互距离要尽可能地远,可有效避免传统k-means算法有时出现较弱聚类的方法,从而优化yolov5产生的锚框,进而更为精确地定位和跟踪车辆的像素位置,以完成道路交通参数提取。具体步骤如下:
6、(1)在数据点之间随机选择一个中心;
7、(2)对于未选择的数据点,计算其与已选择的最接近中心点的距离;
8、(3)使用加权概率选择此新的数据点作为新中心,在选择该点时会结合现实道路场景,选出道路场景对识别目标影响最小的点,以尽可能减少现实道路场景对提取交通流参数的影响,具体策略为:在选择中心点时尽可能避免中心点的像素位置在障碍物的数据线;
9、(4)重复(2)与(3),直至选出个中心,继续完成k-means聚类。
10、经过上述步骤,可在复杂道路场景下更好地完成锚框生成的任务,提高交通参数的提取精度。
11、step2:在完成锚框优化之后,提出改进siou损失函数(yolov5),改进后的损失函数可以让预测框很快地移动到最近的轴,通过添加角度感知的组件,提高识别的精度。该损失函数的计算公式为:
12、
13、其中,为目标检测中预测框与真实框的重叠程度,和分别为依据角度感知组件获取的距离和外观函数数据。
14、step3:在完成识别车辆及获取车辆像素位置的过程后,提出ed-deepsort算法以完成算法适应性改进,从而更好地跟踪车辆,减少因id切换给检测交通流带来的影响。具体流程如下:
15、(1)目标检测与提取。使用之前改进的yolov5算法识别目标、获取目标的像素位置。
16、(2)将当前帧中的目标检测结果与上一帧中已经跟踪的目标进行关联,以确定哪些检测结果对应于同一目标。
17、(3)级联匹配。传统的级联匹配通过距离阈值匹配和外观相似度匹配完成轨迹匹配的过程,而在匹配的过程中存在大量无用轨迹。ed-deepsort针对以下两种情况自适应地删除这些无用轨迹:①轨迹已超过最大生命周期的一半,且轨迹的边框数据满足连续变小且连续五次处于摄像头边缘;②轨迹未超过最大生命周期的一半,但轨迹的边框数据满足连续变小且连续十次处于摄像头边缘。
18、上述两种情况为车辆未超过最大生命周期,但极有可能已经驶出摄像头覆盖范围的情况。
19、(4)iou匹配。采用iou匹配机制进行二次匹配,主要匹配目标检测框的重叠度。而在此次匹配中,对(3)中删除的轨迹不予匹配。
20、(5)更新状态。更新(3)、(4)中匹配的轨迹信息,删除超过最大生命周期的轨迹信息,完成状态更新。
21、s2:为提取河谷城市的交通速度参数,选择可跨越式车道分界线作为尺度构建基准,利用自动标注模块生成测速所需的标注点,该过程通过二维帧图像车道分界线坐标定位得到与现实场景位置点对应的像素位置关系,在此基础上,对像素位置点距离进行多次自动分割,在分割过程中,生成测速所需的标注点;
22、s3:在上述已完成标注点生成过程的基础上,通过判定车辆是否处于车道分界线,具体方法参见文献[]。
23、s4:为解决了车辆动态行驶时未处于车道分界线上的位置偏差问题,后续车速提取还需使车道分界线上的车辆落入标注点,才可实现速度参数的准确提取。但在现实场景中,绝大多数情况下车辆几乎不可能落入标注点,这是一个共性问题,鉴于此,本发明提出一种基于平均速度的概率密度函数纠偏测速方法,具体计算过程如下:
24、(8)
25、式中,为平均速度期望,即本文所求速度参数值,为平均速度的概率密度函数,为平均速度值,为平均速度极小值,为平均速度极大值,公式(8)基于时间不变前提下,车辆位移与速度成正比的事实,通过车辆位移的变化,即可得到平均速度的界定范围,具体见公式(9)、(10);在此基础上,利用平均速度极值理论量化概率密度函数的上下确界,继而得到平均速度的概率密度函数值,具体如公式(11)所示;
26、(9)
27、(10)
28、(11)
29、式中公式(8)、(9)的m即为车辆行驶通过的等长距离参照块数,l为参照块的实际长度,n为前后两帧图像间的帧数差值,t为视频帧图像间的周期,据此即可确定公式(10)中平均速度上下确界;公式(11)中s和、间的位置关系,其中s为车辆覆盖的等长距离参照块总数,、分别为车辆前后两帧其所在参照块前后方标注点的距离,假设车辆行驶位置、在区间内遵循统计学均匀分布,则公式11中在范围内遵循三角分布,据此可得到车辆到标注点距离之和(即),从而解决了车辆未落入标注点的偏差问题,与此同时得到了平均速度的概率密度函数,将其代入公式(8)即可准确求出所需的交通速度参数;
30、s5:为提取河谷城市的交通流量参数,其具体步骤如下:
31、step1:执行跨越车道分界线的分割操作;
32、step2:依据分割过程中生成的等长距离参照块,确定虚拟线圈的安装位置,并至少设置两条虚拟线圈;
33、step3:通过分析车辆依次通过相邻虚拟线圈的先后顺序,确定车辆的行驶方向;
34、step4:统计道路中所有车道的车辆流量,所得到的统计结果即为所需的流量数据;
35、s6:为提取河谷城市交通视频关键微观参数,车头时距具体步骤如下:
36、step1:获取每辆车的像素位置信息;
37、step2:将提取的车辆像素位置与预设的等长距离参照块对应起来,确定每辆车所在的参照块编号;
38、step3:根据车辆所在的参照块编号,计算车辆行驶的路程,以车辆的行驶路程为基础,进一步计算出车头间距;
39、车头间距具体步骤如下:
40、step1:获取每辆车的像素位置信息;
41、step2:将车辆的像素位置信息与虚拟线圈的位置对应起来;
42、step3:计算相邻车辆通过同一虚拟线圈的时间差,该时间差即为车头时距。
43、进一步地,自动标注模块生成标注点过程具体如下:
44、自动标注模块首先需完成二维帧图像车道分界线的坐标定位过程,
45、step1:在场景图中标注e、f、h的像素位置括号内的标定为该像素点在现实场景中的实际位置点;
46、step2:利用计算机相关位置坐标框架,获取e、f、h的像素横、纵坐标;
47、step3:通过e、f、h三个像素位置坐标,利用欧氏距离公式得到ef、fh的像素点间距离,用以完成二维帧图像车道分界线坐标定位的全过程。
48、在完成上述二维帧图像车道分界线坐标定位的基础上,通过像素点间的距离位置关系,对车道分界线及间隙进行分割,并利用已建立的等长距离参照自动生成新的标注点,ab、bc、ef、gh、fh之间的距离关系如下:
49、(1)
50、利用公式(1)所建立的距离关系,通过求解未知关联量的方式,实现新标注点的自动生成,具体步骤如下:
51、step4:以600cm和900cm为三维实际场景下可跨越式车道分界线ab、bd的标准,利用公式(1)计算得出摄像机观测位置fg、gh的距离关联量,据此可确定g点在二维帧图像的像素中点位置,该点即为新生成的标注点,至此完成一次分割过程;
52、step5:以第一次分割生成的g点为端点进行第二次分割,即分割fg和gh,分割时遵循step4中相关计算公式,分割后即能生成另外两个新的标注j和l;
53、step6:以第二次分割生成的j、l为端点,展开第三次分割,方法如上述两个步骤,记录第三次分割生成的标注点后,随即完成了整个标注点的生成过程;
54、三次分割过程中,以600cm作为可跨越同向车道分界线的线段标准,按此标准对车道分界线进行三次有效划分,具体划分尺度第一次为3m,第二次为1.5m,第三次为0.75m;在此基础上,针对每次划分情况再进行等长距离间隔的确定,图中不同颜色块代表帧图像车道分界线在每一次分割过程中的像素位置分布,右侧数字代表该分布所占像素值,方块交界处即为自动生成的新标注点,该标注点即为后续车辆动态行驶时所在位置的定位依据。
55、与现有技术相比,本发明的有益效果是:
56、本发明提出的cbm-tpe车速提取方法首先利用改进目标检测方法,对帧图像中的车辆信息准确识别,从而为道路车辆交通参数的准确提取提供了必要准备,其次,视频帧图像的交通宏观和微观参数的有效提取,为河谷城市的交通数据的全面分析提供了更加可靠的依据。