一种用于自动驾驶汽车仿真的环境传感器模拟方法与流程

文档序号:20943755发布日期:2020-06-02 19:45阅读:401来源:国知局
一种用于自动驾驶汽车仿真的环境传感器模拟方法与流程
本发明属于自动驾驶汽车仿真建模领域,特别涉及一种用于自动驾驶汽车仿真的环境传感器模拟方法,基于特征参数建模用以实现更高精度的仿真与较高的计算效率。
背景技术
:随着自动驾驶技术的开发逐渐从低级别的辅助自动驾驶向高级别的无人自动驾驶技术迈进,算法在仿真环境下的测试与验证工作变得越来越重要。高级别自动驾驶技术在实际道路上的测试验证工作十分困难。为了减少测试成本,提高算法的开发效率,计算机仿真技术逐渐成为了自动驾驶测试技术中不可或缺的一部分。因此,国内外的研究人员都开始将目光投向自动驾驶仿真平台的开发工作上。目前,主流的自动驾驶仿真平台主要分为机器人仿真平台、3d游戏以及专业仿真平台三种。机器人仿真平台多用于自动驾驶技术和机器人技术的交叉研究当中,但作为主要面向室内场景的仿真平台来说,其对室外交通场景的构建方面,存在着仿真物件建构的问题,例如车辆物件建构、行人物件建构、道路建构、交通流建构等问题。包含交通场景的3d游戏对于自动驾驶开发人员来说是一种能够快速构建仿真测试实验的工具,这类工具的特点在于其游戏环境中存在有相当真实的虚拟交通场景,开发人员能够直接在这类场景下进行算法的测试工作。然而由于商业游戏的封闭性,开发人员难以获取到完整的仿真数据,也无法做到对仿真的完全控制。专业仿真平台包括添加了自动驾驶测试功能的传统车辆仿真平台以及专为自动驾驶技术所开发的自动驾驶仿真平台。这类仿真平台为自动驾驶技术提供了更加专业的仿真测试功能,专门针对自动驾驶技术开发过程中所面临的环境、交通、传感器和车辆模型这四大难题进行开发设计。这类专业仿真平台随着自动驾驶技术的不断发展逐渐成为了开发人员的主流选择。但与此同时,随着业界和学界的研究重点逐渐从低级别的自动驾驶向高级别的自动驾驶迈进,开发人员对于仿真环境的真实性和仿真平台的仿真效率提出了更高的要求,现有专业软件在平衡二者的工作上仍留有极大的提升空间,以autoware.ai为例。autoware.ai(https://www.autoware.ai/)是基于ros的开源软件,使自动驾驶汽车能够在仿真环境下在城市道路和高速公路上进行测试。由摄像头和lidar设备结合3d高清地图数据实现目标探测。其使用方法为深度学习和传感器融合方法。目标跟踪和预测通过卡尔曼滤波算法实现,车道网络信息由3d高清晰度地图数据提供。目前这类方法采用图像、激光点云、3d高清地图,造成存储数据量庞大的问题,使用庞大网路的深度学习,虽仿真环境的真实性较高,但仿真平台的仿真效率较低,不利于短时间大规模的测试情景。综上,亟需一种能够平衡仿真环境的真实性和仿真平台的仿真效率用于自动驾驶汽车仿真的环境传感器模拟方法。技术实现要素:本发明的目的是提供一种平衡自动驾驶汽车仿真环境真实性和仿真平台效率的环境传感器模拟方法,针对智能车的仿真平台面临计算负荷随仿真真实度增长的问题,利用外部特性为传感器建模,从而提高仿真真实性,达到较好的计算效率。本发明具有通用性好、仿真精度优化、计算效率高的特点。为实现上述目的,本发明采用如下技术方案:本发明提出的一种用于自动驾驶汽车仿真的环境传感器模拟方法,所述自动驾驶汽车上装载有多种传感器,包括激光雷达、毫米波雷达和摄像头,其特征在于,所述用于自动驾驶汽车仿真的环境传感器模拟方法包括以下步骤:1)在自车的配置文挡中设置传感器配置信息并定义探测目标类型1-1)设置传感器配置信息,包括传感器类型,以及自车坐标系下传感器的探测角度、探测半径、横向安装位置和纵向安装位置;1-2)将传感器探测目标类型分为道路使用者与静态物体两类,分别进行如下定义:1-2-1)道路使用者,包括若干车辆和行人令各车辆分别由长方体目标框表征,令车辆的属性包括车辆类型和车辆的状态信息,该状态信息包括车辆目标框的长和宽,大地坐标系下车辆的位置、速度、加速度、横摆角和横摆角速度;令各行人分别由圆柱体目标框表征,令行人的状态信息包括行人目标框的半径,以及大地坐标系下行人的位置、速度和加速度;1-2-2)静态物体,包括若干静态障碍物、车道线、交通号志和红绿灯令各静态障碍物分别由长方体或圆柱体目标框表征;其中,由长方体目标框表征的静态物体的状态信息包括长方体目标框的长和宽,以及大地坐标系下静态物体的位置和朝向角;由圆柱体目标框表征的静态物体状态信息包括圆柱体目标框的半径和大地坐标系下静态物体的位置;令各车道线分别由通过摄像头对相应车道线进行采样所确定的若干个采样点表征,令车道线的属性包括车道线相对自车的方位、车道线的类型、以及由车道线上各采样点在自车坐标系下相对自车的位置所构成的车道线状态信息;所述交通号志由禁止交通标志和强制性标志组成,所述禁止交通标志包括限速标志和停止标志,所述强制性标志包括方向号志;令交通号志的属性包括交通号志的类型和交通号志的状态信息,令限速标志的状态信息为其限速大小,以正整数表示,令停止标志的状态信息为0,令强制性标志的状态信息为允许车辆行驶的方向;令所述红绿灯的状态信息为各信号灯的颜色;2)引入测量误差,对数值类测量量分别构建各传感器的测量量模型,对非数值类测量量即探测目标类型分别构建各传感器的探测类型模型,分别描述如下:2-1)构建各传感器的测量量模型2-1-1)对于用目标框表征的探测目标分别构建激光雷达和摄像头测量量模型,表达式如下:式中,角标w取lidar时代表激光雷达、取camera时代表摄像头,角标m表示激光雷达或摄像头测量的一个探测目标的测量量总个数;为激光雷达或摄像头测量量模型的输出矩阵,作为仿真环境下激光雷达或摄像头各测量量的估计值;statew为仿真环境下与激光雷达或摄像头对应的各测量量的真实值statew_g构成的矩阵,作为激光雷达或摄像头测量量模型的输入矩阵;ew为与各测量量的真实值statew_g对应的数值误差ew_g构成的数值误差矩阵,令各数值误差分别均为零均值且彼此独立的高斯白噪声,为激光雷达或摄像头的各测量量的方差;2-1-2)构建车道线曲线检测模型,表达式如下:式中,为车道线曲线检测模型确定的车道线状态矩阵,通过在仿真环境下车道线的真实状态矩阵linestate中引入车道线数值误差矩阵eline得到;pointr为构成车道线真实状态矩阵linestate的第r个采样点在自车坐标下相对自车的位置,即pointr=(xlinepoint,r,ylinepoint,r);eline-r为与pointr相对应的车道线数值误差,各车道线数值误差均分别为零均值且彼此独立的高斯白噪声,为车道线各采样点测量值的方差;对车道线状态矩阵中的各采样点进行曲线拟合,得到车道线曲线的估计值作为车道线曲线检测模型的输出;2-1-3)构建毫米波雷达测量量模型构建极坐标系下毫米波雷达测量量模型,表达式如下:式中,为极坐标系下毫米波雷达测量量模型的输出矩阵,作为仿真环境下用极坐标表达的毫米波雷达各测量量的估计值,包括探测目标相对于毫米波雷达径向距离的估计值径向距离变化率的估计值和方位角的估计值stateo_radar为仿真环境下用极坐标表达的毫米波雷达各测量量真实值构成的矩阵,作为极坐标系下毫米波雷达测量量模型的输入,包括探测目标相对于毫米波雷达径向距离的真实值r、径向距离变化率的真实值rangerate和方位角的真实值φ;eo_radar为与毫米波雷达各测量量真实值对应的数值误差构成的数值误差矩阵,由距离误差n(0,σr)、距离测量偏差n(0,σr,bias)、径向速度误差n(0,σrangerate)和方位角误差n(0,σφ)组成,σr,σr,bias,σrangerate,σφ分别对应个测量量的方差;将极坐标系下毫米波雷达测量量模型转换为笛卡尔坐标系下毫米波雷达测量量模型,表达式如下:式中,为笛卡尔坐标下毫米波雷达测量量模型的输出矩阵,由方位角估计值以及笛卡尔坐标下探测目标相对于毫米波雷达的横向距离估计值纵向距离估计值横向速度估计值和纵向速度估计值组成;为极坐标系下根据毫米波雷达速度估计方法得到的探测目标相对于毫米波雷达的切向速度;2-2)构建探测目标类别模型对类别判别过程构造一种随机转移过程,表达式如下:式中,c为由与探测目标的真实类型type类似的若干类型构成的常返集,各类型分别代表一种状态,nc为常返集c内的状态总数;d为由与探测目标的真实类型type较相异的若干类型构成的非常返集,各类型分别代表一种状态,nd为非常返集d内的状态总数;ptype(step)为step步转移概率矩阵,表示经过step步后探测目标类型模型识别的探测目标类型转移到各状态的概率;ptype(step)中的元素pij(step)表示经过step步后由状态i转移到状态j的概率;a为某一传感器判定某探测目标类型正确的概率,b是在相异类中的所有状态保留在相异类的概率;设各传感器探测目标类型模型的初始分布均为均匀分布;3)以能包络自车上装载的所有传感器的探测范围的区域作为自车的探测区域;设定仿真环境下自车探测范围内所有探测目标的真实信息,该真实信息包括探测目标的类型和状态;其中,对于以目标框表征的探测目标,按照各探测目标与自车的欧氏距离由近至远进行排序,将被欧氏距离较近的探测目标遮挡的欧氏距离较远的探测目标视为无法探测目标,自车探测区域内的其余探测目标作为可探测目标;4)将筛选的自车探测范围内各可探测目标的真实信息分别输入步骤2)构建的相应模型中,得到不同传感器对各可探测目标相对于自车的测量量估计值;将各测量量估计值作为所述环境传感器模拟方法的最终结果输出。本发明的特点及有益效果:本发明提出的一种用于自动驾驶汽车仿真的环境传感器模拟方法,可实现对智能化汽车目标集多源信息数据加噪。本发明方法通过对传感器外部特性建模,考虑不同传感器的不同外部特性(包括视野遮挡、探测半径、探测角度、传感器噪声等),该模型使用仿真平台的真实值为输入,输出加噪后的目标信息。本方法基于外部特性模型实现了用于自动驾驶汽车仿真的环境传感器建模,且基于外部特性模型可增加仿真精度,同时本方法在较小的模型规模下可以达到较高的精度,从而达到较好的仿真效果。本发明特点为建模时考虑各类传感器的外部特性,增加仿真真实性,为自动驾驶仿真平台提供较贴近真实的感知结果,提高仿真精度;此外本发明模型结构简单,实行步奏简明,有简单易用、计算效率高的特点,有效降低运算时间。由本发明所构建的测量量模型与目标类别模型较传统方法使用范围更广,因为不需要图像与点云数据输入,本发明通过引入测量误差能对本身不带感知模块的交通流仿真软件例如sumo(http://sumo.sourceforge.net/)提供扩充功能,使其备有感知功能,输出类似真实传感器的效果,进而提升真实性;因本发明具有通用性好、仿真精度优化、计算效率高的特点,能同时部署多辆配有传感器的车,对自动驾驶仿真于决策验证提供有效条件。附图说明图1是本发明提供的环境传感器模拟方法的整体流程图。图2是本发明方法涉及的传感器坐标定义示意图。图3本发明实施例中涉及的车辆状态建模过程示意图。图4本发明实施例中涉及的行人状态建模过程示意图。图5是本发明中涉及的毫米波雷达测物坐标示意图。图6是本发明中涉及的毫米波雷达测量的切向速度与径向速度的关系示意图。图7是本发明中基于一种随机转移过程构建的探测目标类型模型示意图。图8是本发明探测范围与视野遮挡示意图。具体实施方式为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。为了更好地理解本发明,以下详细阐述一个本发明一种用于自动驾驶汽车仿真的环境传感器模拟方法的应用实例。参见图1,本发明提出的一种用于自动驾驶汽车仿真的环境传感器模拟方法,在自动驾驶汽车上装载有多种传感器,包括激光雷达、毫米波雷达和摄像头,本方法包括以下步骤:1)在自车的配置文挡中预先设置传感器配置信息并定义探测目标类型1-1)设置传感器配置信息,包括传感器类型,以及自车坐标系下传感器的探测角度、探测半径、横向安装位置和纵向安装位置;所述传感器类型(激光雷达、毫米波雷达、摄像头),以及自车坐标系下传感器的探测角度、探测半径、横向安装位置、纵向安装位置和安装角度共同组成传感器的外部特性,相关坐标定义如图2所示,分别以车辆的横轴和纵轴作为x轴、y轴,车辆中心作为原点o,构建o-xy直角坐标系即自车坐标系,定义从y轴正向代表0°、x轴正向代表-90°、x轴负向代表90°、y轴负向代表180°,将传感器安装位置在x轴、y轴上的投影作为该传感器的横向安装位置xinstall、纵向安装位置yinstall,将传感器安装位置至其能探测的最远端之间的距离作为该传感器的探测半径d,令传感器的探测角度为β,将传感器探测区域的中轴线与y轴间的夹角作为该传感器的安装角度αinstall为传感器安装角度偏差,以此构建传感器配置信息向量sensor,表达式如下:其中,sensortype为传感器类型。本实施例中自车上装载的传感器分别为激光雷达hdl-64、摄像头、中距离毫米波雷达,长距离毫米波雷达delphi,各传感器的配置信息均由厂商提供,各传感器的配置信息分别参见表1~4。表1激光雷达hdl-64的配置信息表参数值安装横向偏差(xinstall)0m安装纵向偏差(yinstall)0m安装角度偏差(αinstall)0deg探测角度(β)360deg探测半径(d)120m表2摄像头的配置信息表参数值安装横向偏差(xinstall)0m安装纵向偏差(yinstall)1.65m安装角度偏差(αinstall)0deg探测角度(β)38deg探测半径(d)80m表3中距离毫米波雷达的配置信息表参数值安装横向偏差(xinstall)0m安装纵向偏差(yinstall)1.65m安装角度偏差(αinstall)0deg探测角度(β)90deg探测半径(d)60m表4长距离毫米波雷达delphi的配置信息表参数值安装横向偏差(xinstall)0m安装纵向偏差(yinstall)1.65m安装角度偏差(αinstall)0deg探测角度(β)20deg探测半径(d)174m1-2)将传感器探测目标类型分为道路使用者与静态物体两类,分别进行如下定义:1-2-1)道路使用者包括若干车辆和行人令各车辆分别由长方体目标框表征,令车辆的属性包括车辆类型和车辆的状态信息,该状态信息包括车辆目标框的长和宽,以及大地坐标系下车辆的位置、速度、加速度、横摆角和横摆角速度。车辆状态建模如图3表示,车辆的类型与状态信息的表达式分别如下:式中,vehicletype表示由各车辆类型(包括重型卡车、轻型卡车、suv、轿车、摩托车、骑行车等)构成的车辆类型集合。vehiclestate表示车辆的状态矩阵,其中,[xvehicle,yvehicle]t表示车辆在大地坐标系下的绝对坐标(本发明中大地坐标系下数值类测量量均为绝对坐标);[vx,vehicle,vy,vehicle]t表示车辆的速度;[ax,vehicle,ay,vehicle]t表示车辆的加速度;θvehicle表示在大地坐标系下车辆横摆角,代表车辆的朝向;ωwhicle表示车辆横摆角速度;[lvehicle,wvehicle]t表示车辆目标框的长和宽。令各行人分别由圆柱体目标框表征,行人状态建模如图4表示,令行人的状态矩阵为pedestrianstate,表达式如下:式中,rpedestrian为行人目标框的半径(m),xpedestrian,ypedestrian,vx,pedestrian,vy,pedestrian,ax,pedestrian,ay,pedestrian分别为大地坐标系下行人目标框的位置(m)、速度(m/s)和加速度(m/s2)。1-2-2)静态物体,包括若干静态障碍物、车道线、交通号志和红绿灯令各静态障碍物分别由长方体或圆柱体目标框表征。其中,由长方体目标框表征的静态物体状态信息包括长方体目标框的长度lstaticobject和宽度wstaticobject,以及大地坐标系下静态物体的位置(xstaticobject,ystaticobject)和朝向角θstaticobject。由圆柱体目标框表征的静态物体状态信息包括圆柱体目标框的半径rstaticobject),和大地坐标系下静态障碍物的位置,表达式如下:令各车道线分别由通过摄像头对相应车道线进行采样(本实施例采用等间距采样)所确定的若干采样点表征,令车道线的属性包括车道线相对自车的方位lineside、车道线的类型linetype、以及由车道线上各采样点在自车坐标系下相对自车的位置所构成的车道线状态信息linestate,表达式分别如下:状态是由从真实车道线采样的点集组成。pointr=(xlanepoint,r,ylanepoint,r)式中,left,right分别表示车道线位于自车的左侧和右侧;solidyellow表示黄色单实线,dashyellow表示黄色单虚线,doublesolidyellow表示黄色双实线,dash-solidyellow表示由左侧虚线和右侧实线组成的双黄线(其中左右方位按照车辆行驶方向定义,下同),solid-dashyellow表示由左侧实线和右侧虚线组成的双黄线,solidwhite表示白色单实线,dashwhite表示白色单虚线,doublesolidwhite表示白色双实线,dash-solidwhite表示由左侧虚线和右侧实线组成的双白线,solid-dashwhite表示由左侧实线和右侧虚线组成的双白线。pointr为车道线上的第r个采样点在自车坐标系下相对自车的位置xlanepoint,r,ylanepoint,r,n表示采样点总个数。交通号志由禁止交通标志和强制性标志组成,其中,禁止交通标志在本发明中包含限速标志speedlimit和停止标志stop制,令交通号志的属性包括交通号志的类型signtype和交通号志的状态信息signstate,令限速标志的状态信息为其限速大小speedlimit,以正整数表示,单位为千米每小时;令停止标志的状态信息为0。强制性标志包含方向号志permitteddirction,以允许车辆的行驶方向(如向左left,向右right,直行straight)作为强制性标志的状态信息。交通号志的表达式如下:令红绿灯包含基本的三个灯,其状态为各信号灯的颜色,表达式如下:2)引入测量误差,对数值类测量量分别构建各传感器的测量量模型,对非数值类测量量即探测目标类型分别构建各传感器的探测类型模型,分别描述如下:2-1)构建各传感器的测量量模型本发明构建之测量量模型皆由真实状态加上误差值表征,其b类误差和各个传感器特性与探测目标相关,接假设为零均值正态分布,本发明误差的数学通用表达式如下:其中,state代表真实状态集,e带表对应真实状态集中每一元素所对应之误差集合,为输出之测量量估计值。本发明采用此数学表达式表征各个测量量,以下接依循此表达式,唯误差产生方式、方差、输出量不同。具体步骤如下:2-1-1)对于用目标框表征的探测目标分别构建激光雷达和摄像头测量量模型,表达式如下:式中,角标w取lidar时代表激光雷达、取camera时代表摄像头,角标m表示激光雷达或摄像头测量的一个探测目标的测量量总个数,激光雷达和摄像头对一个探测目标的测量量(数值类)一般包括探测目标的位置、速度(为自车坐标系下相对自车的量)和目标框尺寸;为激光雷达或摄像头测量量模型的输出矩阵,作为仿真环境下激光雷达或摄像头各测量量的估计值;statew为仿真环境下与激光雷达或摄像头对应的各测量量的真实值statew_g构成的矩阵,作为激光雷达或摄像头测量量模型的输入矩阵;ew为与各测量量的真实值statew_g对应的数值误差ew_g构成的数值误差矩阵,令各数值误差分别均为零均值且彼此独立的高斯白噪声,为激光雷达或摄像头的各测量量的方差。引入激光雷达和摄像头各测量量的数值误差是通过环境感知算法将真实环境下激光雷达测量的点云和摄像头测量的图像转化为相应数值后所确定的零均值高斯白噪声。2-1-2)构建车道线曲线检测模型,表达式如下:式中,为车道线曲线检测模型确定的车道线状态矩阵,通过在仿真环境下车道线的真实状态矩阵linestate中引入车道线数值误差矩阵eline得到;eline-r为与pointr相对应的车道线数值误差,各车道线数值误差均分别为零均值且彼此独立的高斯白噪声,为车道线各采样点测量值的方差;对车道线状态矩阵中的各采样点进行曲线拟合,本实施例中采用三次曲线拟合,得到车道线曲线的估计值作为车道线曲线检测模型的输出。2-1-3)构建毫米波雷达测量量模型毫米波雷达可获取探测目标的位置及径向速度,构建极坐标系下毫米波雷达测量量模型,表达式如下:式中,为极坐标系下毫米波雷达测量量模型的输出矩阵,作为仿真环境下用极坐标表达的毫米波雷达各测量量的估计值,包括探测目标相对于毫米波雷达径向距离的估计值径向距离变化率(即径向速度vtan)的估计值和方位角的估计值方位角φ为探测目标相对于毫米波雷达的径向距离在水平面内的投影与水平面横轴之间的夹角,参见图5;stateo_radar为仿真环境下用极坐标表达的毫米波雷达各测量量真实值构成的矩阵,作为极坐标系下毫米波雷达测量量模型的输入,包括探测目标相对于毫米波雷达径向距离(即欧氏距离)的真实值r、径向距离变化率的真实值rangerate和方位角的真实值φ;eo_radar为与毫米波雷达各测量量真实值对应的数值误差构成的数值误差矩阵,由距离误差n(0,σr)、距离测量偏差n(0,σr,bias)、径向速度误差n(0,σrangerate)和方位角误差n(0,σφ)组成,σr,σr,bias,σrangerate,σφ分别对应个测量量的方差。将极坐标系下毫米波雷达测量量模型转换为笛卡尔坐标系下毫米波雷达测量量模型,表达式如下:式中,为笛卡尔坐标下毫米波雷达测量量模型的输出矩阵,由方位角估计值以及笛卡尔坐标下探测目标相对于毫米波雷达的横向距离估计值纵向距离估计值横向速度估计值和纵向速度估计值组成;为极坐标系下根据毫米波雷达速度估计方法得到的探测目标相对于毫米波雷达的切向速度,具体过程如下:本发明参照现有的毫米波雷达速度估计方法,对毫米波雷达建模,设毫米波雷达模型中卡尔曼滤波的状态转移方程及观测方程采用如下所示恒定速度模型:式中,[stan,kvtan,k]t为状态向量,包括tk时刻探测目标的切向位移stan,k和切向速度的真实值;[zs,kzv,k]t为观测向量,参见图6,包含tk时刻探测目标的切向位移观测值zs,k和切向速度观测值zv,k,切向位移观测值zs,k由探测目标当前时刻位置(xk,yk)和上一时刻位置(xk-1,yk-1)之间的距离dsk在切向方向的投影求得;切向速度观测值zv,k按照以下公式计算:其中,rk-1为探测目标上一时刻的径向距离,△φ为探测目标tk-1时刻至tk时刻的方位角变化,δt为tk-1时刻与tk时刻的时间差;vtan,k为观测噪声矩阵,设为零均值的高斯白噪声,rtan,k为其协方差矩阵,vtan,k~n(0,rtan,k)。因此,只要测量时间间隔δt足够小(即传感器频率足够大),即可获得相对切向速度观测值zv,k的估计值对于数值误差,本发明实施例按照现有的nuscenes数据集目标检测排行榜(https://www.nuscenes.org/object-detection?extemaldata=all&mapdata=all&modalities=any)的结果设定。除了平均精度,nuscences数据集还为与地面真值框匹配的每个预测测量一组真实的正指标tp(该指标如表5所示)。此外,还可透过测量实际智能网联汽车的感知误差或通过运用某种算法后的误差作为误差参数。表5nuscences数据集tp指标名称简写描述平移错误均值ate欧几里得中心距离(二维)(m)尺寸错误均值ase平移和对齐方向后的3diou(1-iou)朝向误差均值aoe预测值与地面真实值之间的最小偏朝向差(弧度)速度误差均值ave绝对速度误差作为2d速度差的l2范数(m/s)属性错误均值aae定义为1减去属性分类精度(1-acc)。上述误差用零均值高斯分布来表征,本发明实施例将平移误差、比例误差、方向误差和速度误差进行转换,得到各误差参数如表6所示。表6本实施例设定的数值误差参数表表中,megvii和mair分别为激光雷达和摄像头采用的智能感知算法(为现有技术)。以探测目标的目标框尺寸为例对转换方法说明如下:根据误差均值建立高斯分布。设误差分布为零均值高斯白噪声,误差均值averageerror的计算公式如下:式中,nsample为采样的样本数,为第q个采样点的测量值,sptq第q个采样的真实值,errorq定义为测量值和真实值的误差。由于本发明设error~n(0,σerror)为零均值高斯分布,因此概率密度函数是对称的,随机变量y=|error|服从半正态分布,由此得到概率密度函数fy(y;σ):由上式,误差的标准差σerror的计算如下:假设目标框的长度、宽度和高度遵循相同大小的零均值高斯分布且互相独立。预测目标框和真实目标框能互相重叠(预测目标框对真实目标框可以是完全包络或部分包络,两者的中心尽量重合)。对完成中心重合和朝向重合的3d交并比iou,可由以下公式计算:l=(l+error)~n(l,σlength)w=(w+error)~n(w,σwidth)h=(h+error)~n(h,σheight)通过迭代算法,可以获得上述方程的近似数值解。例如,长度,宽度,高度分别为4.8m,1.8m,1.5m的车辆的标准偏差σerror的计算如下。已知l=4.8,w=1.8,h=1.5令lq=(l+error)~n(l,σlength,q),wq=(w+error)~n(w,σwidth,q),hq=(h+error)~n(h,σheight,q),其中q为某一类别。使用随机采样,根据大数定理,均值近似如下:megvii所估计出的标准差为:0.0700,ase的误差为-4.5790e-04。使用其他感知算法对尺寸误差的结果也可以由此方法估算。遵循上述方法的所有误差可以在类中更详细地展开,如表7、8。表7megvii的误差表8mair的误差apate(m)ase(1-iou)aoe(rad)ave(m/s)car0.4780.6050.1520.0731.779truck0.220.780.20.0831.798bus0.1880.8440.1930.1152.863trailer0.1761.0270.2010.7830.64construction_vehicle0.0741.0320.3930.8920.378pedestrian0.370.6970.3071.2660.885motorcycle0.290.6610.240.5133.15bicycle0.2450.7070.2981.040.933traffic_cone0.4870.50.356n/an/abarrier0.5110.5310.2860.149n/a2-2)构建探测目标类别模型激光雷达、摄像头经过感知算法能够辨别物体类型,在此基础下本发明做了以下假设:在特征空间中,较相近的物体容易被分为一类(如重型卡车和轻型卡车),较相异的物体不容易被分为一类。在此假设下对类别判别过程构造一种随机转移过程,表达式如下:式中,c为由与探测目标的真实类型type类似的若干类型构成的常返集,各类型分别代表一种状态,nc为常返集c内的状态总数;d为由与探测目标的真实类型type较相异的若干类型构成的非常返集,各类型分别代表一种状态,nd为非常返集d内的状态总数;ptype(step)为step步转移概率矩阵,表示经过step步后探测目标类型模型识别的探测目标类型转移到各状态的概率;ptype(step)中的元素pij(step)表示经过step步后由状态i转移到状态j的概率;a为某一传感器判定某探测目标类型正确的概率,b是在相异类中的所有状态保留在相异类的概率;设各传感器探测目标类型模型的初始分布均为均匀分布。以下以车辆中的轻型卡车为实例进行说明:如图7所示,假定某传感器判定某探测目标的类别正确率可达95%(正确率由传感器类别误差决定),则设正确率a为95%,错误率1-a则为5%。在相异类中的所有状态保留在相异类的概率为b,从相异类转移到相似类的概率为1-b,b可取任意合适的参数,本实施例取0.25。设定初始分布为均匀分布:objecttype={heavydutytruck,lighttruck,suv,sedan,motorbike,bike,pedestrian}令马尔科夫链一步转移概率矩阵为:nstate=nc+nd式中,i为探测目标类别模型当前输出的探测目标类型,j为探测目标类别模型下一次输出的探测目标类型;pij(1)表示探测目标类别模型识别的探测目标类型经过一步后由一个状态转移到另一个状态的概率;经设计step≥5时(5步)收敛至平稳分布即正确率达95%:现有的目标类型检测主要由环境感知算法实现,因此其算法主要基于深度神经网络(dnn)。本发明拟建立一个简单的数学表达模型,即使用一种随机转移过程来模拟dnn模型的输出结果,较dnn模型更加简单、容易实现。在本发明中,所有非数值类误差皆由此方法构造,如交通号志类型,红绿灯类型、车道线类型等。3)以能包络自车上装载的所有传感器的探测范围的区域作为自车的探测区域;设定仿真环境下自车探测范围内所有探测目标的真实信息,该真实信息包括探测目标的类型和状态;其中,对于以目标框表征的探测目标,按照各探测目标与自车的欧氏距离由近至远进行排序,将被欧氏距离较近的探测目标遮挡的欧氏距离较远的探测目标视为无法探测目标,自车探测区域内的其余探测目标作为可探测目标。具体实现过程如下:3-1)以自车形心为圆心、有效半径为半径构建一圆形区域作为自车的探测区域,其中,有效半径定义为至少超过自车上装载的所有传感器最大探测半径的距离。参见图8,图中,区域1~4分别为激光雷达、摄像头、中距离毫米波雷达和长距离毫米波雷达的探测半径,长距离毫米波雷达的探测半径最大,故有效半径取略大于该长距离毫米波雷达探测半径的距离。3-2)设定仿真环境下自车探测范围内所有探测目标的真实信息,该真实信息包括探测目标的类型和状态。3-3)筛选自车探测区域内能够被自车各传感器探测的以目标框表征的探测目标,具体步骤如下:按照各探测目标与自车的欧氏距离由近至远进行排序,确定长方体目标框各角点的坐标以及自车形心至圆柱形目标框的切点,判断各探测目标是否存在遮挡,遮挡的判断依据为自车形心相对于某一探测目标是否被其他探测目标遮挡。其中:3-3-1)对于以长方体目标框表征的探测目标,确定大地坐标系下各长方体探测目标在水平面内投影的长方形的四个角点坐标,计算公式如下:a1=((x+0.5l)cos(θ)+(y+0.5w)sin(θ),-(x+0.5l)sin(θ)+(y+0.5w)cos(θ))a2=((x+0.5l)cos(θ)+(y-0.5w)sin(θ),-(x+0.5l)sin(θ)+(y-0.5w)cos(θ))a3=((x-0.5l)cos(θ)+(y+0.5w)sin(θ),-(x-0.5l)sin(θ)+(y+0.5w)cos(θ))a4=((x-0.5l)cos(θ)+(y-0.5w)sin(θ),-(x-0.5l)sin(θ)+(y-0.5w)cos(θ))其中,x为长方体目标框在大地坐标系下的横向坐标,y为长方体目标框在大地坐标系下的纵向坐标,θ为长方体目标框在大地坐标系下的朝向角。3-3-2)对于以圆柱体表征的探测目标,确定由自车形心到圆形轮廓的切点,并遍历每个圆柱体探测目标,具体过程如下:设自车形心在大地坐标系下的坐标为(xego,yego),圆柱体探测目标的形心坐标为(xcircle,ycircle),半径为rcircle。通过自车形心的直线方程式可由以下公式表示:y-yego=m(x-xego)圆柱体的圆形轮廓可由以下公式表示:上面两式加上圆心到直线距离为半径的条件可以确定切线斜率m,即可推出切线方程,由切线方程和圆的公式解联立可求出切点(注意:当m只有一个值时,还有另一切线为铅直线x-xego=0)。步骤3-3-3)将长方体目标框的四个顶点及圆柱体目标框的切点定义为遮挡边界点;对于自车探测区域内的任意两个探测目标,记靠近自车的探测目标为在前探测目标,记远离自车的探测目标为在后探测目标,将自车传感器安装位置与在前探测目标的各遮挡边界点相连并延伸至自车探测区域的边线形成一扇形区域,若在后探测目标的形心在该扇形区域内,则在前探测目标对当前探测目标存在遮挡,将在后探测目标视为无法探测目标;遍历自车探测区域内所有探测目标,确定其中所有无法探测目标。按照上述步骤,即可筛选出自车探测区域内能够被各传感器探测到的所有可探测目标。本发明通过有效半径筛选自车周围的探测目标,可降低数据运算量,再以欧氏距离排序,欧氏距离越小越先处理,进一步筛选能够被自车探测到的探测目标。4)将筛选的自车探测范围内各可探测目标的真实信息分别输入步骤2)构建的相应模型中,得到不同传感器对各可探测目标相对于自车的测量量估计值,并将此测量量估计值作为本环境传感器模拟方法的最终输出。以上示意性地对本发明及其实施方式进行了描述,该描述没有限制性,附图中所示的也只是本发明的实施方式之一,实际并不局限于此。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,不经创造性地设计出与该技术方案相似的方式及实施例,均应属于本发明的保护范围。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1