无人驾驶汽车系统及汽车的制作方法

文档序号:11243059阅读:830来源:国知局
无人驾驶汽车系统及汽车的制造方法与工艺

本发明涉及汽车技术领域,特别是涉及无人驾驶汽车系统及汽车。



背景技术:

目前的自动驾驶汽车技术已经基本具备自动操作和行驶能力,例如,在汽车上安装摄像头、雷达传感器和激光探测器等先进的仪器,可通过它们来感知公路的限速和路旁交通标志,以及周围的车辆移动情况,如果要出发的话只需借助地图来导航即可。无人驾驶系统主要利用车载传感器来感知车辆周围环境,并根据感知所获得的道路、车辆位置和障碍物信息,控制车辆的转向和速度,从而使车辆能够安全、可靠地在道路上行驶。

目前,无人驾驶汽车是一种智能汽车,主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶。但是,无人驾驶系统其中难点在于对路旁交通及周围环境识别情况的辨别能力,从而可能导致无人驾驶系统采集到的数据不准确等。



技术实现要素:

基于此,有必要针对上述问题,提供一种对周围环境信息的识别能力强和精准度高且能够安全行驶的无人驾驶汽车系统和汽车。

一种无人驾驶汽车系统,包括:

环境感知子系统,用于采集无人驾驶汽车的车辆信息和周围环境信息,所述周围环境信息包括周围环境的影像信息和三维坐标信息;

数据融合子系统,用于融合所述影像信息和三维坐标信息并提取车道线信息、障碍物信息、交通标识信息以及动态障碍物的追踪信息;

路径规划决策子系统,用于根据所述车辆信息、数据融合子系统提取的信息以及行驶目的地信息规划行驶路径;

行驶控制子系统,用于根据所述行驶路径生成控制指令,并根据所述控制指令对无人驾驶汽车进行控制。

在其中一个实施例中,所述环境感知子系统包括:

视觉传感器,用于采集无人驾驶汽车周围环境的影像信息;

雷达,用于采集无人驾驶汽车的周围环境的三维坐标信息。

在其中一个实施例中,所述数据融合子系统包括:

车道线融合模块,用于对所述视觉传感器和所述雷达采集的周围环境信息进行叠加或排除,并提取所述车道线信息;

障碍物识别融合模块,用于对所述视觉传感器和所述雷达采集的周围环境信息进行融合,并提取所述障碍物信息;

交通标识融合模块,用于对所述视觉传感器和所述雷达采集的周围环境信息进行检测,并提取所述交通标识信息;

障碍物动态追踪融合模块,用于对所述视觉传感器和所述雷达采集的周围环境信息进行融合,并提取所述动态障碍物的追踪信息。

在其中一个实施例中,所述车道线融合模块包括视觉车道线检测单元和雷达车道线检测单元;所述视觉车道线检测单元用于对所述影像信息进行处理,并提取视觉车道线信息;所述雷达车道线检测单元用于提取无人驾驶汽车行驶的路面信息,并根据所述路面信息获取车道外轮廓信息;所述车道线融合模块还用于对所述视觉车道线信息和车道外轮廓信息进行叠加或排除,获取所述车道线信息。

在其中一个实施例中,所述障碍物识别融合模块包括视觉障碍物识别单元和雷达障碍物识别单元;所述视觉障碍物识别单元用于根据所述影像信息分割出背景信息和前景信息,对所述前景信息进行识别获取具有彩色信息的视觉障碍物信息;所述雷达障碍物识别单元还用于识别在第一预设高度范围内的具有三维坐标信息的雷达障碍物信息;所述障碍物识别融合模块,用于融合所述视觉障碍物信息和雷达障碍物信息,获取所述障碍物信息。

在其中一个实施例中,所述交通标识融合模块包括视觉交通标识检测单元和雷达交通标识检测单元;所述视觉交通标识检测单元对所述影像信息进行检测,并提取视觉交通标识信息;所述雷达交通标识检测单元用于提取地面交通标识信息;还用于检测在第二预设高度范围内的悬挂交通标识信息;所述交通标识融合模块还用于根据所述地面交通标识信息和悬挂交通标识信息确定所述交通标识信息的位置,并在所述位置区域内获取所述交通标识信息的类别。

在其中一个实施例中,所述障碍物动态追踪融合模块包括视觉动态追踪单元和雷达动态追踪单元,所述视觉动态追踪单元用于对所述影像信息进行识别,并在相邻两帧连续帧中定位动态障碍物,并获取所述动态障碍物的色彩信息;所述雷达动态追踪单元用于追踪动态障碍物的三维坐标信息;所述障碍物动态追踪融合模块还用于融合所述动态障碍物的色彩信息和动态障碍物的三维坐标信息,获取所述动态障碍物的追踪信息。

在其中一个实施例中,所述环境感知子系统还包括:

gps定位导航仪,用于采集无人驾驶汽车的当前的地理位置与时间;

惯性测量单元,用于测量所述无人驾驶汽车的车辆姿态;

车速采集模块,用于获取无人驾驶汽车当前运行的速度。

在其中一个实施例中,还包括:

通信子系统,用于将所述路径规划决策子系统规划的行驶路径实时传输至外部监控中心。

此外,还提供一种汽车,包括上述无人驾驶汽车系统。

本发明实施例的无人驾驶汽车系统,通过数据融合子系统融合包括影像信息和三维坐标信息的周围环境信息,并提取障碍物信息、车道线信息、交通标识信息以及动态障碍物的追踪信息,提高了对周围环境信息的识别能力和精准度。路径规划决策子系统根据数据融合子系统提取的信息以及行驶目的地信息规划行驶路径,行驶控制子系统根据所述行驶路径生成控制指令,并根据所述控制指令控制对无人驾驶汽车进行控制,进而可以实现安全性能极高的无人驾驶功能。

附图说明

图1为一个实施例中无人驾驶汽车系统的结构框架图;

图2为一个实施例中环境感知子系统的结构框架图;

图3为一个实施例中数据融合子系统的结构框架图。

具体实施方式

为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。

图1为一个实施例中无人驾驶汽车系统的结构框架图,一种无人驾驶汽车系统包括环境感知子系统10、数据融合子系统20、路径规划决策子系统30以及行驶控制子系统40。

其中,环境感知子系统10,用于采集无人驾驶汽车的车辆信息和周围环境信息,其中,周围环境信息包括周围环境的影像信息和三维坐标信息。

数据融合子系统20,用于融合周围环境信息并提取障碍物信息、车道线信息、交通标识信息以及动态障碍物的追踪信息。

路径规划决策子系统30,用于根据车辆信息、数据融合子系统20提取的信息以及行驶目的地信息规划行驶路径。

行驶控制子系统40,用于根据行驶路径生成控制指令,并根据控制指令控制对无人驾驶汽车进行控制。

上述无人驾驶汽车系统,通过数据融合子系统20融合包括影像信息和三维坐标信息的周围环境信息,并提取障碍物信息、车道线信息、交通标识信息以及动态障碍物的追踪信息,提高了对周围环境信息的识别能力和精准度。路径规划决策子系统30根据数据融合子系统20提取的信息以及行驶目的地信息规划行驶路径,行驶控制子系统40根据行驶路径生成控制指令,并根据控制指令控制对无人驾驶汽车进行控制,进而可以实现安全性能极高的无人驾驶功能。

在一个实施例中,参考图2,环境感知子系统10包括视觉传感器110和雷达120。其中,视觉传感器110主要由一个或者两个图形传感器组成,有时还要配以光投射器及其他辅助设备。图像传感器可以使用激光扫描器、线阵和面阵ccd摄像机或者tv摄像机,也可以是最新出现的数字摄像机等。视觉传感器110安装在无人驾驶汽车上,用于采集无人驾驶汽车的周围环境信息,也就采集无人驾驶汽车附近的实时路况信息,包括障碍物信息、车道线信息、交通标识信息以及对障碍物的动态追踪信息。所采集的周围环境信息为周围环境的影像信息,又可以称之为视频信息。

雷达120用于采集无人驾驶汽车的周围环境的三维坐标信息。该无人驾驶汽车系统中包括多个雷达120。在一个实施例中,多个雷达120包括激光雷达和毫米波雷达。激光雷达采用机械式的多线束激光雷达,主要是通过发射激光束,来探测目标的位置、速度等特征量,还可以利用激光雷达的回波强度信息进行障碍检测和追踪。激光雷达具有探测范围更广,探测精度高的优势。毫米波雷达的波长介于厘米波和光波之间,兼有微波制导和光电制导的优点,且其引导头具有体积小、质量轻、空间分辨率高,毫米波导引头穿透雾、烟、灰尘的能力强的特点。在一个实例中,同时采用激光雷达和毫米波雷达,可以解决激光雷达在极端气候下无法施展性能的弊端,可以大大提升无人驾驶汽车的探测性能。

在一个实施例中,环境感知子系统10还用于采集无人驾驶汽车的车辆信息。其中,车辆信息包括无人驾驶汽车的当前的地理位置与时间、车辆姿态和当前运行的速度等。环境感知子系统10还包括gps定位导航仪130、惯性测量单元140(inertialmeasurementunit,imu)和车速采集模块150。其中,gps定位导航仪130采集无人驾驶汽车的当前的地理位置与时间。无人驾驶汽车在行驶过程中,车内安装的全球定位仪将随时获取汽车所在准确方位,进一步提高安全性。惯性测量单元140用于测量无人驾驶汽车的车辆姿态。车速采集模块150用于获取无人驾驶汽车当前运行的速度。

在一个实施例中,参考图3,数据融合子系统20包括:车道线融合模块210、障碍物识别融合模块220、交通标识融合模块230以及障碍物动态追踪融合模块240。

其中,车道线融合模块210,用于对视觉传感器110和雷达120采集的周围环境信息进行叠加或排除,并提取车道线信息。障碍物识别融合模块220,用于对视觉传感器110和雷达120采集的周围环境信息进行融合,并提取障碍物信息。交通标识融合模块230,用于对视觉传感器110和雷达120采集的周围环境信息进行检测,并提取交通标识信息。障碍物动态追踪融合模块240,用于对视觉传感器110和雷达120采集的周围环境信息进行融合,并提取车道线信息。

在一个实施例中,车道线融合模块210包括视觉车道线检测单元211和雷达车道线检测单元213。

视觉车道线检测单元211用于对影像信息进行处理,并提取视觉车道线信息。视觉车道线检测单元211对视觉传感器110获取的影像信息进行去噪、增强、分割等预处理,并提取出视觉车道线信息。

雷达车道线检测单元213用于提取无人驾驶汽车行驶的路面信息,并根据路面信息获取车道外轮廓信息。雷达车道线检测单元213在获取车道外轮廓信息时,对激光雷达获取的无人驾驶汽车的行驶地面的三维坐标信息进行校准,并计算出三维坐标信息中的离散点,其中,离散点可定义为相邻两点之间的距离大于预设范围的点。并对离散点进行滤波处理,利用随机采样一致性方法拟合出地面的位置信息,获取车道外轮廓信息,也即获取雷达120车道线信息。

车道线融合模块210对获取的视觉车道线信息和车道外轮廓信息进行融合(叠加)或排除,获取实时的车道线信息。通过车道线融合模块210,可以提高车道线信息的识别的精确度,可以避免漏获取车道线信息的情况发生。

在一个实施例中,障碍物识别融合模块220包括视觉障碍物识别单元221和雷达障碍物识别单元223。其中,视觉障碍物识别单元221用于根据影像信息分割出背景信息和前景信息,对前景信息进行识别获取具有彩色信息的视觉障碍物信息。视觉障碍物识别单元221通过模式识别或者机器学习等方法对影像信息进行处理,使用背景更新算法建立背景模型以及分割出前景。对分割出的前景进行识别获取具有彩色信息的视觉障碍物信息。

雷达障碍物识别单元223用于识别在第一预设高度范围内的具有三维坐标信息的雷达障碍物信息。

雷达障碍物识别单元223对激光雷达获取的无人驾驶汽车周围环境信息进行预处理,去除地面信息,并筛选识别出在第一预设高度范围内的周围环境的三维坐标信息。根据车道线信息这一约束条件检测感兴趣区域(regionofinterest,roi),其中,感兴趣区域为以方框、圆、椭圆、不规则多边形等方式勾勒出需要处理的区域。将识别出的感兴趣区域的数据信息栅格化,并进行障碍物块聚类分割。对每一块障碍物块对应的原始激光雷达点云数据进行二次聚类,放置欠分割。将二次聚类的所点云数据作为训练样本集,根据训练样本集生成分类器模型,继而,利用训练模型对二次聚类后的障碍物块进行分类识别并获取具有三维坐标信息的雷达障碍物信息。

障碍物识别融合模块220,用于融合视觉障碍物信息和雷达障碍物信息,获取障碍物信息。由于视觉障碍物信息在强光环境或者光线快速变化的场景中会失效,而雷达120是通过主动光源对障碍物信息进行探测,其稳定性强。当无人驾驶汽车在强光环境或者光线快速变化的场景中行驶时,可以通过障碍物识别融合模块220对视觉障碍物信息和雷达障碍物信息进行叠加,就可以在强光环境或者光线快速变化的场景中获取精确的障碍物信息。

由于雷达120在垂直方向的分辨率较低,所采集的是障碍物的三维坐标信息而且并没有红绿蓝rgb彩色信息,在远距离或者有障碍物遮挡的情况下也会出现错误识别的情况。而视觉障碍物识别单元221获取的障碍物信息包含了丰富的红绿蓝rgb信息,而且像素高。对障碍物的彩色信息和障碍物的三维坐标信息进行叠加融合,就可以同时获取包含彩色信息和三维信息的障碍物信息。通过障碍物识别融合模块220可以减小误识别率、提高识别准确度,进一步保证了安全驾驶。

在一个实施例中,交通标识融合模块230包括视觉交通标识检测单元231和雷达交通标识检测单元233。

视觉交通标识检测单元231对影像信息进行检测,并提取视觉交通标识信息。视觉交通标识检测单元231对影像信息进行检测,通过模式识别或者机器学习等方法对影像信息进行处理,并获取视觉交通标识信息,其中,视觉交通标识信息中包含了红绿蓝rgb彩色信息。

雷达交通标识检测单元233用于提取地面交通标识信息;还用于检测在第二预设高度范围内的悬挂交通标识信息。其中,雷达交通标识检测单元233根据反射强度梯度,提取交通标志线点,再利用曲线拟合出地面交通标识信息(地面交通标识线),还可以根据障碍物聚类原理,获取在第二预设高度范围内且形状为标准矩形和圆形的目标物,并定义该目标物为悬挂交通标识信息

交通标识融合模块230用于根据地面交通标识信息和悬挂交通标识信息确定交通标识信息的位置。在获取的特定位置区域,根据视觉交通标识检测单元231获取的视觉交通标识信息识别出交通标识信息的类别或种类。通过交通标识融合模块230可以准确的获取底面或悬挂的各种交通标识信息,可以保证无人驾驶汽车在遵守交通规则的前体下安全行驶。

在一个实施例中,障碍物动态追踪融合模块240包括视觉动态追踪单元241和雷达动态追踪单元243。

视觉动态追踪单元241用于对影像信息进行识别,并在相邻两帧连续帧中定位动态障碍物,并获取动态障碍物的色彩信息。视觉动态追踪单元241通过模式识别或者机器学习等方法对影像信息(视频图像)序列进行处理,在视频图像的连续帧中识别并定位动态障碍物,并获取障碍物的色彩信息。

雷达动态追踪单元243用于追踪动态障碍物的三维坐标信息。雷达动态追踪单元243依据相关目标关联算法,采用最邻近匹配算法和多元假设追踪算法相结合确定相邻两帧或多帧的障碍物为同一目标。根据激光雷达的测试数据获取该目标的三维位置信息和速度信息,进而对关联之后的目标进行追踪。同时,还可以利用卡尔曼滤波与粒子滤波的滤波算法对已经得到的目标的测量状态和预测状态进行滤波得到比较精确的动态障碍物的三维坐标信息。

障碍物动态追踪融合模块240用于融合动态障碍物的色彩信息和障碍物的三维坐标信息,获取动态障碍物的追踪信息。由于视觉动态障碍物信息容易受到强光或者光照变化的干扰,没有精确的动态障碍物的三位坐标信息,但是视觉动态障碍物信息中包含了丰富的红绿蓝rgb的彩色信息。雷动获取的动态障碍物信息没有红绿蓝rgb的彩色信息,在运动过程中出现遮挡及遮挡后分开时无法识别出具体是哪个动态物体,但是,激光雷达获取的动态障碍物信息稳定性强,不会受到光强变化等外界干扰,而且激光雷达获取的动态障碍物信息具有精确的三维坐标信息,对运动物体的动态跟踪具有更精确的运动模型。因此,可以通过障碍物动态追踪融合模块240对从影像信息中获取的动态障碍物的色彩信息和激光雷达获取的动态障碍物信息的三维坐标信息进行融合,既可以获取包含色彩信息和三维坐标信息的动态障碍物,可以对动态障碍物进行精确的追踪。

在一个实施例中,路径规划决策子系统30用于根据车辆信息、数据融合子系统20提取的信息以及行驶目的地信息规划行驶路径。路径规划决策子系统30可以根据环境感知子系统10获取的车辆信息(无人驾驶汽车的当前的地理位置与时间、车辆姿态和当前运行的速度)、数据融合子系统20提取的周围环境信息(障碍物信息、车道线信息、交通标识信息以及对障碍物的动态追踪信息)以及无人驾驶汽车的行驶目的地信息来规划行驶路径。路径规划决策子系统30结合规划的行驶路径对无人驾驶汽车下一时刻的位置进行路径规划,并计算出无人驾驶汽车的控制数据,包括角速度、线速度、行驶方向等。

在一个实施例中,行驶控制子系统40用于根据行驶路径生成控制指令,并根据控制指令控制对无人驾驶汽车进行控制。行驶控制子系统40根据路径规划决策子系统30计算的控制数据生成控制指令,该控制指令包括对车辆的行驶速度、行驶方向(前、后、左、右)、油门以及车辆的形式档位的控制,进而保证无人驾驶车辆能够安全平稳行驶,实现无人驾驶的功能。

在一个实施例中,无人驾驶汽车系统还包括通信子系统50,通信子系统50用于将路径规划决策子系统30规划的行驶路径实时传输至外部监控中心。由外部监控中心对无人驾驶汽车的行驶状况进行监控。

上述无人驾驶汽车系统,通过数据融合子系统20融合包括影像信息和三维坐标信息的周围环境信息,并提取障碍物信息、车道线信息、交通标识信息以及动态障碍物的追踪信息,提高了对周围环境信息的识别能力和精准度。路径规划决策子系统30根据数据融合子系统20提取的信息以及行驶目的地信息规划行驶路径,行驶控制子系统40根据行驶路径生成控制指令,并根据控制指令控制对无人驾驶汽车进行控制,进而可以实现安全性能极高的无人驾驶功能。

此外,本发明的实施例还提供一种汽车,包括上述各实施例中的无人驾驶汽车系统。根据本发明实施例的汽车,可通过汽车中的无人驾驶汽车系统中的数据融合子系统20融合包括影像信息和三维坐标信息的周围环境信息,并提取障碍物信息、车道线信息、交通标识信息以及动态障碍物的追踪信息,提高了对周围环境信息的识别能力和精准度。路径规划决策子系统30根据数据融合子系统20提取的信息以及行驶目的地信息规划行驶路径,行驶控制子系统40根据行驶路径生成控制指令,并根据控制指令控制对无人驾驶汽车进行控制,进而可以实现安全性能极高的无人驾驶功能。

以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。

以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1