一种复杂交叉路口车辆行驶轨迹分析方法、系统及应用

文档序号:31779184发布日期:2022-10-12 09:29阅读:225来源:国知局
一种复杂交叉路口车辆行驶轨迹分析方法、系统及应用

1.本发明属于计算机视觉技术领域,尤其涉及一种复杂交叉路口车辆行驶轨迹分析方法、系统及应用。


背景技术:

2.目前,近年来随着我国城市化建设的加快,城市人口和交通车辆不断增加,我国城市交通面临着严峻挑战,例如交通要道的车流量剧增所导致交通事故频发,交通拥堵等各种问题;复杂路口的车辆行驶轨迹分析和数据统计显的愈加重要,其数据分析结果有助于交通部门管理调度各个路口车辆通行。传统的车流量轨迹分析和数据统计主要使用地磁和rfid电子标签的方式进行统计;例如已授权专利cn108831163a,授权日为2021年6月25日,专利名称为“一种基于地磁的主干路协同信号机控制方法”,该专利公开了一种通过部署地磁在多个交通路口检测车辆位置以及轨迹信息,制定最优协调信号控制方案,有效的缓解交通道路拥堵。例如已授权专利cn109215350a,授权日为2021年5月25日,专利名称为“一种基于rfid电子车牌数据的短期交通状态预测方法”,该专利公开了一种通过部署rfid系统对车辆进行检测,在一定的时间间隔内计算出路段之间交通流量获取当前交通状态。以上传统的方式不仅建设成本和维护成本较高,并且安装方式较为复杂,不利于实地部署。
3.随着当前深度学习技术在计算机视觉领域的发展,该技术广泛应用在交通领域;主要在体现在基于图像的车辆检测,车辆跟踪,车牌号识别以及车辆轨迹分析。该技术不仅成本低,而且对于识别,跟踪的车辆目标其准确性和实时性高。车辆轨迹分析是基于车辆跟踪和车辆检测的更高级的视觉任务;其要点在于对多个运动目标在连续时间区间内图像帧中车辆目标位置坐标变化关系的分析和准确判断,统计各个复杂路口车流量。目前大多数方法为设置虚拟线圈的方法对跟踪目标车辆在路口位置变化设置阈值判断其运动的方向,该方法在复杂交通场景下无法精确进行一个判断。


技术实现要素:

4.针对现有技术存在的问题,本发明提供了一种复杂交叉路口车辆行驶轨迹分析方法、系统及应用。
5.本发明是这样实现的,一种复杂交叉路口车辆行驶轨迹分析方法包括:
6.首先对yolov5进行迁移学习,实现复杂交叉路口车辆感知;
7.然后以虚拟线圈中心点构建参考坐标系原点,采用自适应方式构建参考坐标系,并利用deepsort对车辆行驶轨迹进行跟踪;
8.最后以同一车辆在像素位置变化为分类依据,利用knn算法实现车辆行驶轨迹分析。
9.进一步,所述复杂交叉路口车辆行驶轨迹分析方法具体包括:
10.步骤1,引入交通要道监控摄像头采集多个连续时刻内视频图像数据集;人工标注数据集中每张图像中所有车辆外接矩形框标签,对于连续视频内同一目标车辆使用同一id
进行标识,构建深度学习模型训练集;
11.作为优选,步骤1所述交通车辆图像数据集为:
12.{datak(x,y),k∈[1,k],x∈[1,w],y∈[1,h])
[0013]
其中,datak(x,y)表示目标车辆的图像训练集中第k帧图像中的第x行第y列像素信息,k表示车辆的图像训练集中图像的数量,w为图像宽度,h为图像高;
[0014]
步骤1中所述车辆外接矩形框标签数据集定义为:
[0015][0016]
其中,box
k,n
表示在交通车辆图像训练集中第k帧图像中第n个车辆矩形框标注信息,c_x
k,n
表示在交通车辆图像训练集中第k帧图像中第n个车辆矩形框中心横坐标,c_y
k,n
表示在交通车辆图像训练集中第k帧图像中第n个车辆矩形框中心纵坐标,w
k,n
表示在交通车辆图像训练集中第k帧图像中第n个车辆矩形框宽度,h
k,n
表示在交通车辆图像训练集中第k幅图像中第n个车辆矩形框高度,,id
k,n
第k帧图像中第n个车辆矩形框车牌号;nk表示交通车辆图像训练集中第k帧图像中车辆目标的数量即车辆外接矩形框的数量;
[0017]
步骤1所述交通车辆图像训练集中类别定义为:
[0018][0019]
步骤1中所述车辆重识别数据集定义为:
[0020]
{reid
(c,i)
(x,y),c∈[1,c],i∈[1,1],x∈[1,w_1],y∈[1,h_1]}
[0021]
其中,reid
(c,i)
(x,y)表示重识别训练集中属于c类别车辆中第i个图像中的第x行第y列像素信息,c表示重识别训练集中车辆类别的数量,i表示该类别的数量,w_1为重识别训练集中图像宽度,h_1为重识别训练集中图像高度;
[0022]
步骤2,引入yolov5目标检测模型网络,构建深度学习目标检测网络损失函数模型,将步骤1中交通车辆图像训练集和车辆外接矩形框标签数据集输入到yolov5网络模型中,通过基于迁移学习方式进行优化训练模型,得到训练好的yolov5网络模型;
[0023]
作为优选。步骤2所述yolov5深度学习网络结构为:
[0024]
yolov5由特征提取主干网络层,特征融合网络层,输出网络层三大模块所构成;
[0025]
yolov5网络模型各个模块包含多个卷积层,每个卷积层待寻优参数为即第i个模块中第e层卷积层的寻优参数为li为第i个模块中卷积层的数量;
[0026]
特征提取主干网络主要用于提取图像语义特征和位置特征,该层输入为步骤1中训练集图像,输出为不同尺度特征图。特征融合网络主要将高维特征和低维特征相融合,能有效提升检测精准,该层输入为不同尺度特征图。输出为固定大小特征图。输出网络层用于最终预测输出,该层输入为上一模块输出特征图,输出即为图像中预测出的车辆目标矩形框以及置信度。
[0027]
输出网络层预测出车辆目标矩形框中心横坐标,纵坐标,宽度,高度,置信度5个目标数据信息和目标类别信息,输出网络层预测出车辆目标矩形框中心坐标和高度,宽度可得到第k帧图像第i个网格预测的第n个车辆目标边框中心横坐标中心纵坐标
宽度高度目标类别信息为图像训练集第k帧图像第i个网格预测的第n个类别置信度信息为图像训练集第k帧图像第i个网格预测的第n个类别类别置信度可
[0028]
步骤2所述引入yolov5构建深度学习网络损失函数模型为:
[0029]
所述深度学习网络损失函数包括:类别损失,目标边界框损失和置信度损失;
[0030]
所述类别损失的定义为:
[0031][0032]
其中,g为图像划分的网格数,b为每个网格中预测的边界框数,i表示单元格个数,j表示锚框个数,表示第i个网格上第j个先验框有目标车辆情况,表示第i个网格上第j个先验框无目标车辆情况。type
k,n,i
表示图像训练集第k幅图像第i个网格的第n个目标类别,表示第k帧图像第i个网格预测的第n个车辆目标类别;λ
noobj
表示没有物体时置信度惩罚权重系数。其中由于在复杂交通路口其目标车辆数目较多,其正样本远多于负样本,这样导致正负样本不平衡导致模型训练过程中难以收敛,故在二元交叉熵函数基础上引入平衡因子γ和a优化损失函数训练。
[0033]
所述目标边界框框损失的定义为:
[0034][0035][0036][0037]
其中,表示第k帧图像第i个网格预测的第n个车辆目标边框中心横坐标,表示第k帧图像第i个网格预测的第n个车辆目标边框中心纵坐标,c_x
k,n,i
表示图像训练集第k幅图像第i个网格第n个车辆目标边框中心横坐标,c_y
k,n,i
表示图像训练集第k幅图像第i个网格第n个车辆目标边框中心纵坐标,ρ代表的是计算两个中心点间的欧式距离,
c代表同时包含预测车辆目标边框和真实车辆目标边框的最小闭包区域的对角线距离,分别表示第k帧图像第i个网格预测的第n个车辆目标边框宽度和高度,w
k,n,i
,h
k,n,i
表示图像训练集第k帧图像第i个网格第n个车辆目标边框宽度和高度,iou是预测框和真实框之间的交集和并集之比。
[0038]
所述置信度损失的定义为:
[0039][0040]
其中,表示模型网络预测第k帧图像第i个网格预测的第n个车辆目标类别置信度,pi(type
k,n,s,i
)表示图像训练集第k帧图像第i个网格第n个车辆目标类别置信度。
[0041]
所述yolov5损失函数为:
[0042]
loss=loss(class)+loss(conf)+loss(box)
[0043]
进一步,所述基于迁移学习的方式训练yolo v5模型,包括:
[0044]
将步骤1中深度学习模型图像训练集作为输入数据,使用yolov5模型载入预训练权重,修改其分类类别,将构建的数据集对网络进行迁移训练;
[0045]
进一步,冻结yolov5网络特征提取主干网络层l1和特征融合网络层l2,由于只需要识别是否为车辆,故修改输出网路层l3中分类类别个数为1。使用sgd优化器更新输出网路层l3参数数据集训练轮次epoch设定为50,批量大batch小设定为8,初始学习率a设定为1e-5,使用余弦退火公式调整器学习率;公式如下:
[0046][0047]
其中和代表学习率变化的范围,t
cur
代表上次重启后,经过了多少个epoch。ti代表第i次重启,一共需要训练多少个epoch。经过以上训练得到优化后第i个组件中第e层卷积层的寻优参数为为第i个模块中卷积层的数量;
[0048]
步骤3,引入deepsort目标跟踪网络模型,构建深度学习目标跟踪网络损失函数模型,将步骤1中车辆重识别数据集输入到deepsort网络模型进行优化训练模型,得到训练好的deepsort网络模型;
[0049]
作为优选,步骤3所述deepsort深度学习网络结构为:
[0050]
deepsort由目标车辆图像特征提取模块、目标车辆位置预测模块,目标车辆特征匹配模块;
[0051]
进一步,车辆特征提取模块是由一个小型resnet网络所构成,该网络包含多个卷积层,每个卷积层待优化参数为定义为ηf,即第f层卷积层的优化参数为ηf,e∈[1,l],l为第
卷积层的数量,该层输入为步骤1中图像数据集,输出为定义为128维特征向量x(x0,x1,x2,

,x
128
),该层主要提取出车辆目标矩形框对应的图像特征用于后续相似度计算进行目标匹配和下一帧位置预测。目标车辆位置预测模块主要采用卡尔曼滤波算法预测出当前帧内目标车辆矩形框框在下一帧出现的矩形框位置坐标。目标车辆特征匹配模块采用匈牙利算法将当前帧车辆出现矩形区域位置和预测出下一帧矩形框位置坐标进行匹配分配唯一id号进行目标跟踪。
[0052]
进一步,resnet特征提取网络由多个卷积层,池化层,bn层组成;其中多个卷积层堆叠成residual模块,该模块引入残差结构有效的解决反向传播过程中梯度消失和梯度爆炸问题。该网络输出层使用平均池化层代替全连接层可解决输入图像尺寸大小固定问题。输入最终输出为128维特征向量。
[0053]
进一步,定义resnet特征提取网络其损失函数为:
[0054][0055][0056]
其中xi表示预测目标框提取出第i个特征值,表示真实目标框提取出第i个特征值,二者差值映射到函数得到其损失值,通过基于反向传播算法更新参数。
[0057]
进一步,通过结合resnet提取出车辆目标外表特征以及通过卡尔曼滤波算法计算运动特征得到代价矩阵,使用匈牙利算法对目标车辆进行id分配达到对于目标车辆跟踪功能。
[0058]
进一步,所述训练deepsort目标跟踪模型,包括:训练轮次epoch设定为100轮次,优化器选择sgd优化器,初始学习率设定为1e-5,训练完毕后,得到优化后第e层卷积层的寻优参数为为卷积层的数量;
[0059]
步骤4:通过道路监控摄像头实时采集初始图像并传输至计算处理主机,使用yolo目标检测模型检测出每帧图像中目标车辆,输出目标车辆位置矩形框作为deepsort目标跟踪模型的输入去预测各个车辆在下一帧轨迹,对其分配id进行实时跟踪;
[0060]
作为优选,步骤4中采集视频图像数据定义为:
[0061][0062]
其中,表示摄像头实时采集的第k帧图像中的第x行第y列像素信息,k表示车辆的图像训练集中图像的数量,w为图像宽度,h为图像高;
[0063]
进一步,使用训练好的yolov5模型对输入的测试连续视频帧每一帧图像识别出矩形框定义为:
[0064][0065]
其中,表示yolov5模型输出第k帧图像第x行第y列像素信息,type
k,n

示yolov5模型输出第k帧图像第n个车辆外接矩形边框中车辆类别标签为1,c_x
k,n
表示yolov5模型输出第k帧图像中第n个车辆矩形框中心横坐标,c_y
k,n
表示yolov5模型输出第k帧图像中第n个车辆矩形框中心纵坐标,w
k,n
表示yolov5模型输出第k帧图像中第n个车辆矩形框宽度,h
k,n
表示yolov5模型输出第k帧图像中第n个车辆矩形框高度,type
k,n
表示yolov5模型输出第k帧图像中第n个车辆矩形框置信度,nk表示yolov5模型输出第k帧图像中车辆目标的数量即车辆外接矩形框的数量;
[0066]
进一步,将yolov5预测出目标车辆外接矩形框作为deepsort输入,定义deepsort输出为:
[0067][0068]
其中,表示deepsort模型输出第k+1帧图像第x行第y列像素信息,type
k,n
表示deepsort模型输出第k帧图像第n个车辆外接矩形边框中车辆类别标签为1,c_x
k,n
表示deepsort模型输出第k+1帧图像中第n个车辆矩形框中心横坐标,c_y
k,n
表示deepsort模型输出第k+1帧图像中第n个车辆矩形框中心纵坐标,w
k,n
表示deepsort模型输出第k+1帧图像中第n个车辆矩形框宽度,h
k,n
表示deepsort模型输出第k+1帧图像中第n个车辆矩形框高度,type
k,n
表示deepsort模型输出第k+1帧图像中第n个车辆矩形框置信度,id
k,n
表示deepsort模型输出第k+1帧图像中第n个车辆矩形框id标识符,nk表示deepsort模型输出第k+1帧图像中车辆目标的数量即车辆外接矩形框的数量;
[0069]
步骤5,使用yolov5模型预测出目标车辆外接矩形作为deepsort算法输入对其同一目标车辆进行跟踪,以同一目标车辆在视频帧内外接矩形中心点坐标变化量为数据集样本,对其行驶方向通过人工标注构建起车辆轨迹方向预测数据集,使用knn算法计算在不同时序内图像帧中目标车辆坐标变换进行目标车辆轨迹判断。
[0070]
作为优选,步骤5中车辆坐标变换数据集用于knn算法判断车轨迹,主要用目标跟踪模型deepsort在视频流中跟踪不同车辆在t时间内变换坐标(dx,dy),该坐标以虚拟线圈作为坐标参考系,人工进行标注直线轨迹或是转弯轨迹,所述knn算法选取1000个目标车辆的坐标变换作为样本进行测试。
[0071]
进一步,定义人工标注轨迹方向数据集为:
[0072]
{data(dxi,dxi,direi),dx∈[0,1],dy∈[0,1],dire∈{0,1}}
[0073]
其中data(dxi,dxi,direi)表示在t时间内第i个跟踪目标车辆x轴方向,y轴方向变化量以及其标记为直行还是拐弯,0表示直行,1表示拐弯。
[0074]
进一步,通过对视频图像内车辆进行识别跟踪效果,对同一目标车辆分配唯一id号,将其在视频帧内出现的初始坐标和最后消失的终止坐标做差计算出坐标的变换量(dx,dy)。通过人工观测的方式对其手动标注,标注是直线还是转弯两种情况,将该数据作为后面使用knn算法进行预测判断的样本信息。
[0075]
进一步,对标注轨迹方向数据集进行7:3划分训练集和验证集,通过大量交叉测试训练得到的k让其车辆目标轨迹分类准确率最好;对各种车辆目标轨迹进行二分类之后若是转弯则进行对其车辆目标轨迹分类,通过其坐标正负性直接分类出是左行驶还是右行驶。
[0076]
本发明的另一目的在于提供一种复杂交叉路口车辆行驶轨迹分析系统。
[0077]
本发明的另一目的在于提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述的复杂交叉路口车辆行驶轨迹分析方法。
[0078]
本发明的另一目的在于提供一种信息数据处理终端,所述信息数据处理终端用于实现所述的复杂交叉路口车辆行驶轨迹分析方法。
[0079]
结合上述的所有技术方案,本发明所具备的优点及积极效果为:
[0080]
本发明提出基于迁移学习的目标检测框架和目标跟踪框架算法对目标车辆进行精准跟踪,为后续目标车辆轨迹判断提供基础,提出基于knn的目标车辆轨迹分析判断方法,该方法应用于车辆轨迹分类较于传统方法更加准确且实施更加方便。
[0081]
本发明利用迁移学习方式训练yolov5和deepsort模型,实现复杂环境下的车辆精确感知和目标跟踪;以车辆在图像像素位置变化为分类依据,利用knn算法分析车辆行驶轨迹;相对于传统方法利用阈值方法实现车辆轨迹判断,本方法利用迁移学习和knn实现复杂交叉路口车辆感知和轨迹分析,其具有更高的精度和鲁棒性。
附图说明
[0082]
为了更清楚地说明本技术实施例的技术方案,下面将对本技术实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
[0083]
图1是本发明实施例提供的复杂交叉路口车辆行驶轨迹分析方法流程图;
[0084]
图2是本发明实施例提供的复杂交叉路口车辆行驶轨迹分析方法原理图;
[0085]
图3是本发明实施例提供的训练yolov5模型效果图;
[0086]
图4是本发明实施例提供的训练deepsort模型特征提取网络效果图;
[0087]
图5是本发明实施例提供的测试yolov5模型识别检测车辆效果图;
[0088]
图6是本发明实施例提供的测试yolov5和deepsort模型在多帧图像分别跟踪不同轨迹状态的目标车辆效果图(从左往右分别为:左转弯,直行,右转弯,从上往下为时间轴);
[0089]
图7是本发明实施例提供的训练knn算法进行车辆轨迹状态分类的训练数据集分布情况;
[0090]
图8是本发明实施例提供的训练好的knn算法对测试集中车辆轨迹状态分类的判断。
具体实施方式
[0091]
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
[0092]
现有技术存在的问题及缺陷为:基于地磁传感器等传统方式其部署困难其成本较高,其耗费人力物力巨大,其部署拆卸较麻烦。且在其特定条件下,无法达到比较高得精准度。在深度学习视觉处理领域其下游模型框架发展较为成熟,在其相关应用领域还有待进一步证明与实践应用。
[0093]
解决以上问题意义为:深度学习视觉技术处理在其相关领域应用前景巨大,该技术能够准确实时的获取车辆轨迹方向数据后进一步分析处理。
[0094]
针对现有技术存在的问题,本发明提供了一种复杂交叉路口车辆行驶轨迹分析方法、系统及应用,下面结合附图对本发明作详细的描述。
[0095]
如图1所示,本发明实施例提供的复杂交叉路口车辆行驶轨迹分析方法包括:
[0096]
s101,对yolov5进行迁移学习,实现复杂交叉路口车辆感知;
[0097]
s102,以虚拟线圈中心点构建参考坐标系原点,采用自适应方式构建参考坐标系,并利用deepsort对车辆行驶轨迹进行跟踪;
[0098]
s103,以同一车辆在像素位置变化为分类依据,利用knn算法实现车辆行驶轨迹分析。
[0099]
在本发明一优选实施例中,图2是本发明实施例提供的复杂交叉路口车辆行驶轨迹分析方法原理包括:
[0100]
step1:通过路口摄像头拍摄当前时间点的交通道路图像。
[0101]
step2:使用基于迁移学习训练好的yolo v5模型对当前时间拍摄的图像作为输入检测出目标车辆位置信息,裁剪出识别车辆图像并且获取其位置坐标信息作为输出。
[0102]
step3:使用基于迁移学习训练好的deepsort模型对上一步识别出来车辆位置以及裁剪出来车辆图像作为输入,对多个车辆进行跟踪;使用外接矩形框标记出车辆在图像中位置,对于同一目标车辆分配唯一的id号。
[0103]
step4:以图像中心点为坐标原点建立起直角坐标系,以跟踪出车辆矩形外接框中心点为参考坐标,获取跟踪目标车辆在视频帧内出现点的坐标(x0,y0)坐标,目标车辆消失在视频帧内最后的位置坐标(x
t
,y
t
)并计算出轨迹偏移量(dx,dy)
[0104]
step5:使用上一步收集的车辆偏移量(dx,dy),对其部分数据提前通过人工标记的方式标记出直行或转弯状态作为参照样本,使用knn算法计算和参照样本之间的距离进行轨迹分类;分类出是直行还是拐弯。
[0105]
step6:若为拐弯轨迹,则通过消失点的x坐标正负性判断出左拐或是右拐。
[0106]
实施例1.基于迁移学习训练yolov5对目标车辆进行识别。
[0107]
该方法包括:1)采用迁移学习方式训练yolov5模型2)交通路口识别。
[0108]
具体而言:
[0109]
(1)采用迁移学习方式训练yolov5模型
[0110]
本发明主要是在复杂交通十字路口进行一个车辆的识别并进行后续的处理,目标车辆的准确性对于后续的任务极为重要,这里采用yolov5模型进行训练去进行准确实时的定位目标车辆。
[0111]
在yolov5模型中,经过一系列特征提取,特征融合等操作之后,最后得到三种不同尺度的张量(tensor)分别代表不同感受野下的输出,也就是完成在不同尺度的特征图上的一个预测。这样有助于对小目标检测的精度的提升。模型最终对于目标车辆同时进行回归和分类任务。由于本发明目标检测部分只需要检测目标是否为车,在yolov5中产生的目标建议区域(anchor)进行一个二分类任务(区分是背景还是目标车辆)。所以需要对网络分类修改其激活函数,采用sigmoid激活函数:
[0112][0113]
其中z为当前神经元节点的输出值,进行sigmoid函数激活之后其值在0-1之间概率分布,其概率值大于0.5判定为目标,否则为背景。对此其分类的损失函数也要重新设计,此外由于在复杂交通情况下其目标车辆存在区域较多导致正负样本不平衡,故将其损失函数设计为改进版二值交叉熵损失函数:
[0114][0115]
其中y为预测的概率,为标签;当为0时表示该目标建议区域不存在目标车辆,否则就存在,a为平衡正负样本超参数。由于yolov5模型里面各个层都进行了精心的设计,不便于直接修改,这里只需要修改其激活函数和分类损失函数即可,对于额外的超参数也进行一定的修改调整在对网络进行一定调整后对其进行迁移学习的训练;通过迁移学习的方式载入预训练文件,调整设置超参数,采用自己拍摄复杂交通路口图片对其进行训练;具体而言,冻结其网络模型的特征提取区域和特征融合区域,只对其分类器进行一个训练。这样在极短的时间批次内能够达到比较好的效果。自此,完成对整个yolov5模型训练部分。
[0116]
(2)在检测的十字交通路口部署摄像头使其能覆盖整个路口进行监控,将得到的监控画像视频帧以差帧法的方式进行一个采样,如每隔3帧抽取一帧视频画面,抽帧是为了尽可能保持视频流处理的速度能达到实时处理。将检测的图像输入到yolov5网络中进行一个预测,得到的输出为车辆目标在图像画面中中心坐标值x,y以及宽度和高度w,h。得到这些数据之后进行下一步目标跟踪处理。
[0117]
实施例2.基于deepsort目标跟踪对车辆进行实时跟踪。
[0118]
该方法包括:1)基于迁移学习训练deepsort模型2)获取目标车辆轨迹。
[0119]
具体而言:
[0120]
(1)使用构建出的重识别数据集通过迁移学习的方法对deepsort模型进行少量的训练到达其效果。
[0121]
(2)deepsort将目标检测器yolov5输出的多个车辆位置坐标作为输入,输出为目标车辆的轨迹及其同一目标车量分配相同的id。在跟踪目标车辆的基础上保存目标车辆在视频画面中出现在第一帧图像的坐标位置;该坐标位置以人为设定的虚拟线圈作为坐标轴原点得到的(x0,y0)坐标,同时也得到目标车辆消失在视频帧内最后的位置坐标(x
t
,y
t
),计算出其坐标的改变量(dx,dy),将该组坐标保存作为knn算法分类的样本。
[0122]
实施例3.基于knn算法训练和目标车辆方向判断:通过上一步目标车辆识别跟踪获取视频内起始帧的多个目标车辆坐标变换量dx,dy最为样本,对其进行knn分类操作;其中knn距离公式采用公式3余弦距离公式:
[0123][0124]
其中(dx0,dy0)为待分类的数据坐标变换量,(dxi,dyi)为第i个样本的坐标变换,总共有n个数据集;
[0125]
在训练阶段采取交叉测试的方法进行训练获取到最合适的k值,在测试分类阶段
对其进行二分类之后若是转弯则进行对其分类,通过其坐标正负性直接分类出是左行驶还是右行驶。
[0126]
如图6,以图像中心为坐标轴,获取多个跟踪目标车辆(唯一id标识)在视频帧内出现的初始坐标(x1,y1),消失的最终坐标(x2,y2)和计算其偏移量(dx,dy)。对其坐标按照视频宽度和高度大小缩放到0-1之间,标注其目标转弯行驶或直线行驶。采集目标车辆出现时坐标,消失时坐标和其轨迹方向,计算其坐标偏移作为knn分类部分样本如表1;
[0127]
表1
[0128]
编号初始坐标最终坐标偏移坐标方向1(-0.06,0.08)(-0.39,0.27)(-0.33,0.3)直行2(-0.06,0.24)(0.02,-0.28)(0.07,-0.44)直行3(-0.05,-0.31)(-0.42,0.11)(-0.27,-0.18)直线4(0.31,-0.27)(0.25,-0.25)(0.28,0.03)转弯5(-0.08,-0.28)(0.42,-0.22)(0.5,0.06)转弯6(-0.05,-0.29)(0.46,-0.24)(0.51,0.05)转弯7(-0.04,-0.3)(0.05,-0.28)(0.09,0.02)转弯
[0129]
图7即为采集部分样本点分布情况。
[0130]
应当注意,本发明的实施方式可以通过硬件、软件或者软件和硬件的结合来实现。硬件部分可以利用专用逻辑来实现;软件部分可以存储在存储器中,由适当的指令执行系统,例如微处理器或者专用设计硬件来执行。本领域的普通技术人员可以理解上述的设备和方法可以使用计算机可执行指令和/或包含在处理器控制代码中来实现,例如在诸如磁盘、cd或dvd-rom的载体介质、诸如只读存储器(固件)的可编程的存储器或者诸如光学或电子信号载体的数据载体上提供了这样的代码。本发明的设备及其模块可以由诸如超大规模集成电路或门阵列、诸如逻辑芯片、晶体管等的半导体、或者诸如现场可编程门阵列、可编程逻辑设备等的可编程硬件设备的硬件电路实现,也可以用由各种类型的处理器执行的软件实现,也可以由上述硬件电路和软件的结合例如固件来实现。
[0131]
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1