基于单目视觉和gps组合导航系统的实时城区交通灯识别系统的制作方法
【专利摘要】本发明公开了一种基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统,该系统通过交互图像标注、相机标定、三维位置恢复等方法步骤离线创建交通灯地图,给出交通灯在全局定位的GPS坐标系下的位置坐标及语义属性。在线检测时,以创建的离线交通灯地图为先验,结合位姿定位求解交通灯在图像中的大致范围,从而确定感兴趣区域,在感兴趣区域中利用交通灯的形态信息进行交通灯的颜色分割与形状识别。该交通灯识别系统可适应于多种不同路况和场景,实现多种环境下的交通灯稳定且长距离的检测感知。由于系统采用低成本、低功耗的导航设备、图像采集设备及计算平台,可广泛应用于无人驾驶汽车视觉导航、智能车视觉辅助驾驶等领域。
【专利说明】
基于单目视觉和GPS组合导航系统的实时城区交通灯识别 系统
技术领域
[0001] 本发明属于计算机视觉与智能交通领域,涉及城区环境下的实时交通灯识别,尤 其涉及一种基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统。
【背景技术】
[0002] 智能车辆(Intelligent Vehicle,IV)是一个集环境感知、动态决策与规划、智能 控制与执行等多功能于一体的综合系统,是衡量一个国家整体科研实力和工业水平的重要 标志。作为智能车三大关键技术之一的环境感知技术,现阶段以主动传感激光、雷达及结构 光为主的传感系统,已经取得了部分成功的应用,但该类传感器存在功耗大、体积大、造价 昂贵等问题,制约了其在智能车技术研发和应用上的推广。而被动可见光传感,即相机,则 在功耗、体积、造价方面具有显著优势。近年来,大量研究团队和机构在利用可见光传感完 成交通场景感知方面做出了很多卓有成效的研究,基于视觉的交通要素和障碍物感知成为 该领域的研究热点。
[0003] 交通灯信号的识别与很多因素紧密相关,如天气、相机特性及参数设置、周围环境 等。阳光强烈的晴天、光线较弱的阴雨天气、低可见度的雾霾天气、逆光行驶、树木遮挡的暗 场景、无遮挡的亮场景等情况下,相机采集的图像效果各不相同,可能引起交通灯在图像中 呈现出色彩失真、过曝等现象,从而影响交通灯信号的检测效果。另外,交通场景中的汽车 刹车灯、广告牌、行人等因素会引入干扰,可能使识别系统产生虚警,增加了交通灯识别的 难度。因此,如何设计实现一套能尽可能充分利用图像信息、适应系统的各类外部环境变化 和车体姿态变化,能长时间长距离稳定运行,同时又具有低成本、低功耗、高移植性的交通 灯检测系统以满足无人驾驶、汽车辅助驾驶等领域应用需求已成为研究热点。
【发明内容】
[0004] 本发明的目的在于提供一种基于单目视觉和GPS组合导航系统的实时城区交通灯 识别系统。
[0005] 为了实现上述目的,本发明采用了以下技术方案:
[0006] 包括离线交通灯三维地图创建和模式学习模块、在线图像感兴趣区域提取模块以 及图像交通灯识别模块;所述离线交通灯三维地图创建和模式学习模块包括交通灯三维地 图创建子模块,交通灯颜色概率模型训练子模块和交通灯形状分类器训练子模块;所述在 线图像感兴趣区域提取模块利用离线创建的交通灯三维地图,通过坐标转换对实时采集的 图像进行感兴趣区域的提取;所述图像交通灯识别模块对提取的感兴趣区域利用经过训练 的交通灯颜色概率模型和交通灯形状分类器进行交通灯的在线识别,并结合历史帧图像识 别结果输出时域关联的交通灯识别结果。
[0007] 所述交通灯三维地图创建子模块用于采集无人车的全局位姿信息和由该无人车 获取的交通灯图像,并在获取到对于每个交通灯的多帧图像的交通灯真值后,结合采集的 对应时刻的无人车全局位姿信息,通过三角测量法获取对应交通灯的三维坐标,所述交通 灯真值是指交通灯在图像上的位置。
[0008] 所述全局位姿信息由安装于无人车上的惯性导航系统获取。
[0009] 所述交通灯颜色概率模型训练子模块用于根据交通灯的红绿黄颜色数据进行高 斯模型拟合,从而得到红绿黄颜色的高斯模型。
[0010] 所述交通灯形状分类器训练子模块用于根据不同形状的交通灯图像进行形状分 类的训练,从而得到可以进行形状分类的随机森林分类器。
[0011]所述在线图像感兴趣区域提取模块需要进行车体位姿的获取,并使用车体位姿信 息判断是否进行交通灯识别,在确定无人车接近设置交通灯的路口后使无人车开始交通灯 图像在线采集,并利用无人车的实时全局位姿信息对交通灯三维地图中该路口处对应交通 灯的三维坐标信息进行坐标转换,通过坐标转换将该交通灯的三维坐标投影到在线采集的 对应帧图像上,利用交通灯在图像上的投影位置确定图像上包含交通灯的感兴趣区域。
[0012] 在已经进行稳定检测(例如,已完成连续5帧以上图像的检测)后,当前帧图像的感 兴趣区域根据上一帧图像的感兴趣区域获得。
[0013] 所述图像交通灯识别模块在提取的感兴趣区域内进行交通灯的识别,识别过程包 括使用交通灯颜色概率模型对感兴趣区域进行分割,对分割后的连通域使用交通灯形状分 类器进行形状识别,从而得到实时采集的图像中交通灯的颜色信息和形状信息。
[0014] 本发明的有益效果体现在:
[0015] 本发明所述交通灯识别系统通过离线交通灯三维地图创建和模式学习模块、在线 图像感兴趣区域提取模块、图像交通灯识别模块三大模块,实现对城区环境下的交通灯的 识别,利用离线创建的交通灯地图进行系统的开启与关闭,并获取感兴趣区域,减少了误检 和虚警,实现了稳定连续的交通灯识别。由于系统可采用低成本、低功耗的导航设备、图像 采集设备及计算平台,可广泛应用于无人驾驶汽车视觉导航、智能车视觉辅助驾驶等领域。
[0016] 进一步的,本发明所述交通灯识别系统主要利用了多传感器提供的数据,如位姿 数据、图像数据,通过交互图像标注、相机标定、三维位置恢复等方法步骤离线创建交通灯 地图,给出交通灯在全局定位的GPS坐标系下的位置坐标及语义属性。在线检测时,以创建 的离线地图为先验,定位交通灯在图像中的范围并由此确定感兴趣区域。在感兴趣区域中 对交通灯进行颜色分割与形状识别。最后,通过单交通灯的时域关联增加识别结果的可靠 性。该交通灯识别系统可适应于多种不同路况和场景,例如光照变化、多类型的复杂场景 等,实现城区环境下的交通灯稳定且长距离的检测感知。
【附图说明】
[0017] 图1为本发明的系统硬件关系图。
[0018] 图2为本发明的系统流程框图。
[0019] 图3为本发明定义的路口交通场景示意图。
[0020] 图4为本发明车体坐标系、激光坐标系和摄像机坐标系的定义示意图,其中:(a)侧 视图,(b)俯视图。
[0021 ]图5为本发明定义的地球坐标及东北天坐标示意图。
[0022]图6为本发明的交通灯H通道和S通道直方图统计示意图。
[0023] 图7为本发明的笛卡尔坐标系下交通灯红绿黄颜色统计直方图(a)及交通灯红绿 黄颜色高斯模型拟合图(b)。
[0024] 图8为本发明的交通灯的四种形状类型示意图。
【具体实施方式】
[0025]下面结合附图和实施例对本发明作进一步说明。
[0026]本发明提出的交通灯地图创建及识别系统实验平台的硬件设备包括车载相机、全 局位姿测量系统、三维激光雷达、工控机及千兆网交换机等数据传输设备。其中,车载相机 安装在无人车车顶前方,便于感知无人车前方的交通灯。全局位姿测量系统采用GPS/INS惯 导系统,由惯性测量单元、GPS接收机、GPS天线及用于差分的数据传输单元组成,其中惯性 测量单元和GPS天线安装在无人车后轴中心的竖直线上,与车体坐标系的坐标原点在XY坐 标下一致。工控机安装在无人车内部,用于数据处理计算和软件、程序的运行。千兆网交换 机安装车内适当位置。
[0027]该交通灯识别系统工作原理:主要包括离线创建地图和在线实时检测(识别),利 用加州大学标定工具箱和CMU激光相机联合标定工具箱完成相机的内参和外参标定,标定 后通过相机及惯导系统实时采集获取能观测到交通灯的图像序列及其对应的位姿数据,并 利用时间戳对齐图像序列和位姿数据,对图像中的交通灯使用程序标注(由于针对的同一 个交通灯的多帧连续图像较为相似,因此可以在人工标注第一帧后,由程序完成对同样颜 色交通灯的标注)和人工标注结合进行真值(指在图像中的实际位置)标注,从采集得到的 数据中恢复出交通灯的三维位置,即结合交通灯在图像中标注出的真值、相机的内外参数 和对齐后的位姿数据,通过三角测量求解出交通灯在东北天坐标系下的三维位置并添加语 义(例如交通灯形状),从而完成交通灯地图的创建,用于后续在线检测;在线实时检测中, 根据当前位姿数据和交通灯地图数据,实时计算地图中的各个交通灯到无人车的距离。如 果交通灯在相机的图像采集范围内,将交通灯从东北天坐标系转换到图像坐标系,并确定 在图像中的位置,获得包含有交通灯的感兴趣区域。基于感兴趣区域进行颜色概率图的获 取,完成了颜色分割和颜色识别,基于分割后的结果进行形状的识别。最终获取单帧的交通 灯识别结果,并基于多帧图像的识别结果进行时域关联,得到稳定准确的输出结果。
[0028]目前该系统已集成安装于西安交通大学人工智能与机器人研究所视觉认知计算 与智能车实验室的"夸父一号"无人驾驶平台上,并顺利完成数百个路口交通灯的检测,并 完成上述路段的自主导航驾驶。
[0029](一)实验平台硬件介绍 [0030] 1)相机和镜头:
[0031 ] 识别交通灯使用的相机为加拿大PointGrey公司的GrassHopper2高分辨率CCD摄 像机,其具体参数如表1所示。摄像机配套的镜头为Kowa手动光圈百万像素镜头,由于交通 灯尺寸较小,为了能尽早在图像中观测交通灯并且使其在图像中点像素数足够多,选择焦 距较长的镜头。本发明中选择的Kowa镜头焦距为25mm,其详细参数如表2所示。
[0032] 表1 GrassHopper2摄像机规格指标
[0037] 2)GPS/INS 惯导系统:
[0038] 实验平台安装的惯导系统为加拿大NovAtel公司的SPAN-LCI。由惯性测量单元 (mj)、GPS接收机和GPS天线等组成,同时,配备了数据传输单元(DTU)传输差分改正数,组 合多种定位设备实现高精度的全局定位。
[0039] 使用的惯导系统的各项性能指标如表3所示:
[0040] 表3 SPAN-LCI惯导系统性能指标
[0043] 3)工控机:
[0044]实验平台使用的工控机为凌华公司的车载刀片服务器ADLINK嵌入式电脑,体积 小、可挂式安装、运算速度快,同时配置了固态硬盘,其指标如表4所示:
[0045] 表4 ADLINK工控机性能指标
[0047] 4)三维激光雷达(主要用于摄像机的外参标定):
[0048]实验平台上安装的三维激光雷达是美国Velodyne公司生产的64线激光雷达HDL-64E,其扫描线数多、覆盖范围广、数据量丰富,可以较逼真的还原场景。
[0049]各硬件的连接关系如图1所示。系统计算负载在车载刀片服务器ADLINK嵌入式电 脑(分为位姿工控机、交通灯工控机以及激光工控机)上进行;所有模块间通过千兆以太网, 以UDP数据包方式进行通信。系统能够以每秒10HZ的频率稳定提供车载摄像机前> = 100m (具体距离可以根据实际情况调整)范围内的交通灯检测结果。系统成本低廉、功耗低,且具 有较高的整体移植性,适合批量推广应用。
[0050] 摄像机离线标定时,需要对齐激光数据和图像数据。激光数据从三维激光雷达获 取,原始数据通过千兆以太网传输到激光工控机,经过数据解析从极坐标系转换到激光坐 标系下,同时也存储了经过时间戳同步后的激光数据对应时间戳。图像数据通过摄像机抓 取,然后通过千兆网接口传输到交通灯工控机上,同时保存对准后的图像时间戳。
[0051] 在线检测时,惯导系统的各个传感器实时采集定位数据,通过串口及网口传输到 位姿工控机后经过一系列的滤波处理得到平滑准确的全局位姿数据,然后通过公用的千兆 网交换机发送到交通灯工控机。交通灯工控机上既有从摄像机获取的图像,同时有接收到 的带同步时间戳的全局位姿数据,经过插值对齐结合二者完成交通灯识别过程,并且将识 别的结果通过公用千兆网交换机发送到路径规划与行为控制模块,最终以指令的方式控制 无人车在有交通灯路口的行为。
[0052](二)本发明的软件系统介绍如下:
[0053] 1)开发平台
[0054]本发明采用windows 7操作系统作为软件的运行平台,Windows操作系统具有支持 图形化显示和多任务机制,操作简单,实时性高,运行稳定等优点。程序主要在Visual Studio 2005编译环境下C++语言开发,程序开发过程中使用了OpenCV库辅助图像处理过 程,同时部分开发和测试在MATLAB平台上完成。
[0055] 2)系统框架设计
[0056]整个系统如图2所示,输入为GPS数据和图像序列,设计工作包含两大部分:(1)车 载摄像机内外参数的标定,交通灯地图的创建,颜色高斯概率模型的学习以及形状随机森 林分类器的训练;(2)交通灯实时检测程序的开发。
[0057]城区交通场景中的一个典型的十字路口如图3所示。路口四个方向都设立了交通 灯,便于各个方向的来往车辆都能在路口清楚地观察到交通信号。以图3中场景为例具体介 绍系统工作原理及各个关键部分的设计方案。假设图3中黑色的车为无人车,要在真实道路 环境中无人驾驶时,首先程序开启后需要将离线获得的交通灯地图、摄像机标定参数、交通 灯颜色模型、形状分类器等数据文件加载到程序,便于后续计算中方便获取,加载完成后开 始实时识别程序(即交通灯实时检测程序)。
[0058]识别过程中主要包括计算无人车到前方路口距离、单帧图像交通灯识别、时域关 联三个重要过程。
[0059] (1)计算无人车到前方路口的距离
[0060] 为了减少不必要的计算量、误检与虛警,在创建好的交通灯地图及实时全局定位 的辅助下,考虑到观测交通灯摄像机的硬件性能指标,只考虑在距离前方路口一定距离范 围内(例如100米)启动交通灯识别程序并向无人车路径规划与行为控制模块发送实时识别 结果。在程序中上述过程即实时计算当前车体的全局位姿与地图中前方路口点的距离,路 口点如图3中所示,如果距离值大于100米则更新全局位姿重新计算,直到距离小于等于100 米才启用交通灯识别过程,即利用摄像机采集的图像、惯导系统解算的全局位姿依次完成 基于单帧图像的交通灯识别过程,进一步通过时域关联给出最终结果。
[0061] (2)基于单帧图像的交通灯识别
[0062]本发明介绍了交通灯地图的创建及使用、交通灯检测和交通灯识别的具体原理及 方法实现,从地图先验信息、颜色信息及形态语义信息等多方面入手完成城区交通环境下 交通灯的实时识别,需要将上述信息进行综合,共同完成单帧图像中的交通灯识别。
[0063]系统分为在线与离线两部分。离线部分即先验知识,包括GIS地图给出的有交通灯 的路口点坐标、该路口点交通灯的位置坐标及语义信息及统计多帧不同交通场景和光照条 件下图像创建得到的交通灯颜色模型、训练得到的四种不同形状(圆形、箭头形,参见图8) 分类器。这些先验知识在程序最初启动时,全部读取进来用于辅助实时在线检测过程。在线 检测时实时读取摄像机采集的图像及与其对应时刻车体的全局位姿数据,根据当前车体位 姿数据及摄像机标定参数计算摄像机能观测到的交通灯在图像上可能出现的感兴趣区域。 然后,在得到的感兴趣区域内利用建立的交通灯颜色模型基于颜色概率判断对图像进行颜 色分割。在此基础上,对分割得到的候选连通域基于分类器的交通灯形状识别方法与四种 形状模板进行匹配,若匹配到某一形状,则将该连通域的语义信息标注为对应的语义,否则 认为该候选连通域为非交通灯将其排除。这样,每个候选连通域都具有语义及颜色信息,在 创建交通灯地图的时候添加了语义信息,因此可以进一步对比验证识别的正确性,当给出 的语义信息与地图标注一致时认为识别是正确匹配的并作为识别结果输出,否则认为该候 选连通域为错误匹配的区域,排除其为正确的识别结果,从而实现了单帧图像上的交通灯 识别。
[0064] (3)时域关联
[0065] 基于单帧图像的检测结果仅由当前图像决定,而实际情景中由于交通灯变化的连 续性,连续多帧图像之间是有规律可循的。例如,若连续多帧图像中交通灯都表现为红色, 则在接下来的一帧图像中交通灯为红色的可能性较大。若下一帧图像中的交通灯为绿色, 那么可能是信号灯颜色变为通行,也可能是算法产生了误检,这时如果结合后续几帧图像 的识别结果,对这一帧的识别结果的可靠性就能得到很大的提升。如果后续多帧均为绿色 交通灯,那这一帧应当是正检,如果后续几帧多为红色交通灯,则这一帧可以认为是误检。
[0066] 因此,对得到的基于单帧图像的识别结果需要联系之前的多帧识别结果共同决定 最终识别结果,比较简单而有效的做法是连续统计多帧识别结果(例如采用10帧),若多于5 帧识别结果为红色或绿色的某种形状的交通灯,输出该类型的交通灯。这样,通过时域关 联,系统的鲁棒性得到了提升。
[0067] 参见图4,本发明采用广泛使用的张正友标定法标定摄像机内部参数(即内参)。标 定的思路为,首先只考虑摄像机4个线性参数进行初步标定,计算得到内参初始值,在此基 础上标定畸变参数,然后以线性参数为初始值,对标定参数进行重新优化,直至得到收敛的 线性和非线性参数。内参标定主要用于坐标间旋转平移矩阵的求解。
[0068] 对于外部参数(即外参)的标定,本发明以车体坐标系[Xv Yv Zv]为标定时的世界 坐标系,如图4所示,坐标原点0V定义在无人车的后轴中心,以车头方向为X v的正方向,以垂 直车身向左为Yv的正方向,以垂直车体向上为Zv的正方向定义车体坐标系。三维激光雷达安 装在无人车顶部,激光坐标系[Xi Yi Zi]三个坐标轴的定义与车体坐标系平行,坐标原点0i 定义在激光雷达中心。摄像机安装在车顶前部,摄像机坐标系[X。Y。Z。]原点0。在摄像机光 心处,沿光轴方向向前为X。的正方向,沿CCD平面水平方向向右为Y c的正方向,垂直于X。和Yc 平面向上为Zc的正方向。
[0069] 标定车载摄像机的外部参数,即求取摄像机坐标系与车体坐标系之间的旋转矩阵 Rci和平移矩阵IVv。通常通过获取同时能在摄像机坐标系和车体坐标系下观测的特征点坐 标对,来优化计算求解摄像机坐标系到车体坐标系之间的旋转矩阵和平移矩阵IVv。实 际操作时,数据采集时对实验环境有要求并且需要消耗大量的时间和人力。在测量方式比 较粗糙的情况下,特征点在车体坐标系中的位置测量精度较低,尤其是竖直方向。考虑到实 验平台的组成结构,车体坐标系与激光坐标系三个轴的方向平行,因此两个坐标系之间旋 转矩阵 Rl_v为单位阵,只存在平移量!'^,很容易测量,而摄像机坐标系与激光坐标系之间的 旋转矩阵Rd和平移矩阵Td标定时,比较容易获得对同一物体的不同观测,数据采集操作 更简单方便,标定精度也较高。
[0070] 设两个坐标系中能同时观测到的一点在激光坐标系下的坐标为心,在摄像机坐标 系下的坐标为X。,根据下式: = I %! ]X,
[0071] \ (2-1): \Xy=[Rtv |l;.v ]Xt
[0072] 可以推得
[0073] Xv = [ Rc-v | Tc-v]Xc = [Ri-v | Ti-v] [Rc-i | Tc-i ] Xc (2-2)
[0074] 其中,Rii和Tii通过测量获得。因此,将摄像机坐标系到车体坐标系的外部参数求 取,转换为摄像机坐标系到激光坐标系之间的外部参数求取。
[0075] 本发明利用标定摄像机内参时使用的标定板完成摄像机与激光坐标系的联合标 定。将标定板摆放不同的姿态和位置,保证其在两个坐标系均可观测,然后采集对应的图像 和激光数据组成数据对。
[0076] 对于图像数据,利用张正友标定法标定时定义标定板黑白格图形的两条边缘为X 轴和Y轴,垂直于标定板平面方向为Z轴。对标定板图像数据进行处理,不仅可以返回摄像机 的内部参数,还能返回标定板坐标系到摄像机坐标系的旋转、平移变换关系,并以标定板平 面法向量9。,i和其到摄像机坐标系距离a。,:表示第i帧图像中标定板相对于摄像机坐标系的 位姿。对于激光数据,手动选取出位于标定板平面的激光数据点后,利用RANSAC方法和最小 二乘法鲁棒的估计第i帧标定板平面相对于激光坐标系的位姿,其中标定板平面法向量用 01,i表示,平面到激光坐标系原点的距离为a 1;1。由此,标定激光坐标系与摄像机坐标系之间 的位姿变换即求解使标定板通过两种不同的数据观测方式在同一坐标系中的表示差别最 小的旋转矩阵与平移矩阵。
[0077] 参见图5,本发明中定义的车体坐标系是一个局部坐标系,在无人车行驶的过程中 车体坐标系的坐标原点随着车体一起移动,因此需要将恢复出的交通灯三维位置转换到一 个固定的坐标系下便于后续使用。在无人车中,通常将GPS数据用东北天坐标系表示,因此 将交通灯地图转换至东北天坐标系下存储。东北天坐标系通常简写为ENU,其中整个坐标系 的原点选取在地球表面上的一个固定点,三个坐标轴中E轴指向东,N轴指向北,U轴沿当地 的地球垂线方向指向天。无人车在局部范围内运动,因此使用东北天坐标系较地球坐标系 更容易描述其运动状态和位置信息。无人车上安装的GPS设备解算出无人车当前时刻在地 球坐标系下的位置,因此实际使用时需要确定地球坐标系与东北天坐标系之间的转换关 系。如果地球上有一点P在当地东北天坐标系(GENU)下的坐标向量表示为r n(e,n,u),在地 球坐标系(〇XeYeZe)下的坐标向量为( Xe,),经炜度海拔为(A,(}),h),那么地球坐标系 到东北天坐标系的转换公式为: e -sin X cos 2 0 ^
[0078] n - -cos/lsin^ -sin/lsin^ cos多(- j'0 ) # cos i cos ^ sin 乂 cos # sin^ z0
[0079]其中,xo,yo,zo为东北天坐标系的坐标原点。
[0080]当前无人车的坐标为[Xp yP zP]T时,东北天坐标系与车体坐标系之间的转换关系 公式为: X她 | cos沒:-sine O'j .叫
[0081] v"", = sinJ cos 6? 〇: + yp .,_」_〇 〇 U U,_
[0082] 车体坐标系与东北天坐标系之间的转换关系公式为: xv]「cos 沒 sin<9 0"| 夂,", - 5
[0083] jv = -sin^ co^6 0 yefm-yp _Zv _ 0 Q Z:p_
[0084] 从图像恢复交通灯三维位置的方法,使用了最小二乘三角测量,结合多帧位姿下 的图像序列中对同一交通灯的不同观测,优化求解出交通灯在东北天坐标系下的三维位 置。其中下标P表示当前车体位姿坐标,9为车体朝向角。
[0085]设标注的图像中交通灯真值坐标为x,要恢复的交通灯的三维坐标为X,第i帧数据 的投影矩阵为Pi,则对于每帧数据有:
[0086] dxi = PiX
[0087] 其中,
[0088] F = K[R,_J^c] 〇-; 應广
[0089] K为摄像机内部参数,Ri-。(h)和Ti-。(Ti)为激光坐标系与摄像机坐标系的旋转平移 变换关系,Rv-i(R2)和IVi(T2)为车体坐标系与激光坐标系的变换关系,R_-4PT_i为东北 天坐标系转换到车体坐标系的变换关系。d为线性尺度因素,为了消除线性尺度因素,利用 叉积将上式改写为:
[0090] xiXdxi = XiXPiX
[0091] 即
[0092] XiXPiX = 0
[0093] 将上述等式改写为X的线性等式,如下:
[0094] AX = 0
[0095] A为一个3n X 4(n表示车体坐标个数,即位置个数)的矩阵,其中 r〇 -i
[0096] A - [x2]xP2 [x] x = 1 0 -u -v u 0
[0097] 其中,[u v]为标注得到的交通灯在图像中位置x的横纵坐标。然后,对矩阵A进行 SVD分解,A = USVT,交通灯的三维位置X的解为矩阵A最小特征值对应的归一化特征向量,即 归一化的V的最后一列。
[0098]从图像及对应的位姿数据中恢复出多个交通灯的三维位置后,将其按统一格式存 储为交通灯地图形式,作为在线检测时的先验信息。交通灯识别程序运行时,首先加载交通 灯地图的东北天坐标,然后实时计算地图中的各个交通灯到无人车的距离。如果交通灯在 摄像机的采集范围内,将其从东北天坐标系转换到图像坐标系,并确定在图像中的大致范 围辅助检测。
[00"]记在摄像机的采集范围内的某个交通灯的东北天坐标为[xienu,yienu,zi enu]T,当前 时刻无人车在东北天坐标系下的位置为[xP_,yP_,zP_] T、航向角为0P_,由此可得地图中 该交通灯在车体坐标系中的坐标[Xlv,y lv,z lv ]T为 T cos0pemi sin0pefm ^xenu-xpemi
[0100] ytv = -Sin^m, cos^)CTlu 0 yem-ypemt _%」L 0 0 lXZenu-Zpe,n, _
[0101 ]然后根据摄像机的外部参数Ri,Ti,R2,T2和基于张正友标定法标定得到的内部参 数矩阵K,交通灯在图像坐标系中的坐标为 -叫 X!'.
[0102] V =皮[巧 7;],?乃r , i〇 1」4 _ 1 _
[0103] 若[u,v]在图像尺寸的范围内,表示摄像机当前时刻能看到交通灯,且其在图像中 的位置为[u,v]。但实际上,恢复得到的交通灯三维位置通过变换映射到图像上后,不可能 完全与图像上的交通灯完全重合。这个偏差是由于多方面的误差引起的,如摄像机内部参 数和外部参数的标定误差、无人车位姿的误差及图像真值标注的误差等引起的,标定误差 越小、位姿越准确,交通灯映射到图像上的位置越准确,越利于检测。
[0104] 参见图6和图7,为了建立交通灯的三种颜色即红色、黄色和绿色的颜色模型,在不 同的光照条件、不同的交通场景、不同的视角条件下采集各种颜色的交通灯的图像,并基于 HSV颜色空间对图像标注真值提取出属于交通灯的像素,然后对H通道和S通道进行统计。在 H通道中,绿色分布在180度附近、黄色分布在60度附近、红色分布在0度和360度附近,并呈 现为近似高斯分布的形态。在S通道中三种颜色的规律相同,只有当饱和度的值达到一定的 值后,才可能属于交通灯并且饱和度值越高越可能属于交通灯。将色度和饱和度组成的极 坐标系转换为笛卡尔坐标系,转换公式为: X = 5 X cos(h)
[0105] v = 5 x sin(/7)
[0106] 其中,h为色度值,取值范围为[0,360),代表角度。s为饱和度值,取值范围为[0, 1],代表幅值。3种交通灯颜色在该坐标系下的概率分布基本符合高斯模型的钟型特征,因 此可以利用如下模型来描述3种颜色的概率分布。
[0107] 八V) = e_().5~时 U(V'-#)T
[0108] 其中v=[x y],y为统计得到的v的均值,2是对应的协方差矩阵,T表示矩阵旋转。 [0109]分别使用三个二维高斯模型拟合三种颜色的交通灯的分布情况,并将其规一化到 取值范围为[0,1]之间的概率密度函数,通过标注的多组真值计算均值和协方差矩阵,由此 建立红黄绿三种颜色的二维高斯概率模型。
[0110]本发明进行随机森林的机器学习算法的训练,以便于对交通灯形状进行分类,步 骤如下:
[0111] a)特征选取
[0112] 本发明选择了形状参数(Form Factor)、圆心径(Circular diameter)、五阶中心 矩(2维)组成的4维特征,来描述候选连通域的形状。
[0113] 形状参数定义如下式所示:
[0115] 其中,A为连通域的面积,B为连通域的周长,连续情况下圆的F值等于1,是所有形 状中最小的。
[0116] 圆心径定义如下式所示:
[0120]其中,Mr为重心到边界的平均距离,即为重心到边界的方差。k表示连通域内像素个 数,(x,y)表示图像中像素的横纵坐标F)表示连通域内像素点坐标的均值。
[0121] 五阶中心矩定义如下式所示:
[0122] x v
[0123] 仍二 X y
[0124] 其中,x,y为二值图像(二值图像由上文颜色分割后获得,包含候选连通域)上像素 点横纵坐标,f(x,y)取值为1或〇,(取1表示白色,取〇表示黑色和m Q5的幅值可以度量所 分析的区域对于垂直和水平轴线的不对称性,很适合交通灯的形状识别。
[0125] b)分类器选择
[0126] 对于由a)提取出来的形状参数、圆心径和五阶中心矩特征,选择随机森林模型进 行分类识别。随机森林是一个由多棵决策树组成的分类器,每一棵决策树的训练集是通过 对输入训练样本及其特征维度的随机采样而得到的,且其输出结果是由各决策树输出结果 的众数而定。随机森林分类器的泛化误差由单个决策树的分类强度和决策树之间的相互关 系共同决定的。
[0127] 其具体学习算法过程为:
[0128] 1创建训练集,设有N个样本,每个样本的特征维度为M。
[0129] 2获取当前节点所能采用的特征维度数? s
[0130] 3从N个训练样本中以有放回抽样的方式,取样n次,形成一个训练集(即boos trap 取样),并用未抽取到的样本作预测,评估其误差。
[0131] 4对于每一个节点,随机选择m个特征,决策树上每个节点的决定都是基于这些特 征确定的。根据这m个特征,计算其最佳的分裂方式。
[0132] 5每棵树都会完整成长而不会剪枝(Pruning)。
[0133] 总之,与传统的交通灯识别系统相比,本发明充分利用了图像数据和车体位姿数 据信息,利用车体位姿数据与图像数据创建了离线的交通灯地图,有效提高了交通灯识别 的准确率和稳定性,在接近有交通灯的路口才开始进行识别,提高了系统的效率,并且大大 减少了误检和虚警。本发明采用了随机森林算法进行形状的识别,对不同形状的交通灯具 有更高的识别率,并且使用颜色高斯模型进行图像分割,对不同光照强度下的交通灯都能 进行稳定检测,极大地提高了系统的适应性。由于系统采用低成本、低功耗的导航设备、图 像采集设备及计算平台,可广泛应用于无人驾驶汽车视觉导航、智能车视觉辅助驾驶等领 域。
【主权项】
1. 基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统,其特征在于:包括离 线交通灯三维地图创建和模式学习模块、在线图像感兴趣区域提取模块以及图像交通灯识 别模块;所述离线交通灯三维地图创建和模式学习模块包括交通灯三维地图创建子模块, 交通灯颜色概率模型训练子模块和交通灯形状分类器训练子模块;所述在线图像感兴趣区 域提取模块利用离线创建的交通灯三维地图,通过坐标转换对实时采集的图像进行感兴趣 区域的提取;所述图像交通灯识别模块对提取的感兴趣区域利用经过训练的交通灯颜色概 率模型和交通灯形状分类器进行交通灯的在线识别,并结合历史帧图像识别结果输出时域 关联的交通灯识别结果。2. 根据权利要求1所述基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统, 其特征在于:所述交通灯三维地图创建子模块用于采集无人车的全局位姿信息和由该无人 车获取的交通灯图像,并在获取到对于每个交通灯的多帧图像的交通灯真值后,结合采集 的对应时刻的无人车全局位姿信息,通过三角测量法获取对应交通灯的三维坐标,所述交 通灯真值是指交通灯在图像上的位置。3. 根据权利要求2所述基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统, 其特征在于:所述全局位姿信息由安装于无人车上的惯性导航系统获取。4. 根据权利要求1所述基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统, 其特征在于:所述交通灯颜色概率模型训练子模块用于根据交通灯的红绿黄颜色数据进行 高斯模型拟合,从而得到红绿黄颜色的高斯模型。5. 根据权利要求1所述基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统, 其特征在于:所述交通灯形状分类器训练子模块用于根据不同形状的交通灯图像进行形状 分类的训练,从而得到可以进行形状分类的随机森林分类器。6. 根据权利要求1所述基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统, 其特征在于:所述在线图像感兴趣区域提取模块在确定无人车接近设置交通灯的路口后使 无人车开始交通灯图像在线采集,并利用无人车的实时全局位姿信息对交通灯三维地图中 该路口处对应交通灯的三维坐标信息进行坐标转换,通过坐标转换将该交通灯的三维坐标 投影到在线采集的对应帧图像上,利用交通灯在图像上的投影位置确定图像上包含交通灯 的感兴趣区域。7. 根据权利要求6所述基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统, 其特征在于:在已经进行稳定检测后,当前帧图像的感兴趣区域根据上一帧图像的感兴趣 区域获得。8. 根据权利要求1所述基于单目视觉和GPS组合导航系统的实时城区交通灯识别系统, 其特征在于:所述图像交通灯识别模块在提取的感兴趣区域内进行交通灯的识别,识别过 程包括使用交通灯颜色概率模型对感兴趣区域进行分割,对分割后的连通域使用交通灯形 状分类器进行形状识别,从而得到实时采集的图像中交通灯的颜色信息和形状信息。
【文档编号】G06K9/00GK105930819SQ201610298509
【公开日】2016年9月7日
【申请日】2016年5月6日
【发明人】薛建儒, 钟阳, 张玥, 崔迪潇
【申请人】西安交通大学