一种基于双目视觉的无人驾驶汽车雾天主动避险的方法与流程

文档序号:11250245阅读:856来源:国知局
一种基于双目视觉的无人驾驶汽车雾天主动避险的方法与流程

本发明属于无人驾驶车辆主动安全领域,尤其涉及一种基于双目视觉的无人驾驶汽车雾天主动避险的方法。



背景技术:

近年来,我国汽车产业一直高歌猛进,发展势头迅猛。汽车智能化,汽车信息化,无人驾驶等汽车行业先进领域发展快速,利用双目视觉系统,模仿人的眼睛,对汽车行进过程中前方物体进行三维重建的技术也越来越多的应用到无人驾驶汽车当中。对物体进行三维重建的目的主要是用来实现无人驾驶汽车的主动避险。

双目视觉系统属于仿真生物视觉系统,属于计算机视觉领域,传统的双目视觉技术是首先对摄像机标定,用来模仿人的双眼,然后用标定好的摄像机获取两张双目图像,然后提取两张图片上的特征信息进行立体匹配,最后计算匹配好的同名特征点或者特征区域的视差信息,进而反算求出深度信息,最后利用所计算出来的信息进行物体的三维模型重建。

传统的双目视觉系统,虽然可以实现但是需要的时间比较长,无法应用于无人驾驶汽车上,为了解决这一问题,采用gpu加速处理图片以及利用深度学习的方法快速识别物体的技术应运而生,深度学习的算法,主要是选择和组织合适的神经网络结构,通过监督学习的方法,控制整个神经网络,来加快处理一对图片所需要的时间,然而,这种算法有仍然有比较大的缺陷,在光线较弱的雾天或者反光路面算法容易失效,并且由于物体特征比较模糊,无法对物体进行识别以及三维重建。进而导致车辆在雾天行驶时,无法有效地避免危险。



技术实现要素:

本发明的目的在于提供一种基于双目视觉的无人驾驶汽车雾天主动避险的方法,以克服现有技术的不足。

为达到上述目的,本发明采用如下技术方案:

一种基于双目视觉的无人驾驶汽车雾天主动避险的方法,具体包括以下步骤:

1)、首先通过双目视觉系统对前方进行拍摄,获得双目视觉图;

2)、对所得双目视觉图进行平滑、光顺、去噪预处理;

3)、从预处理后的双目视觉图中寻找相对清晰的特征区域,并在gpu并行架构下,计算得到浓密的视差图;

4)、将得到的视差图信息反映到灰度空间0~255;

5)、初始灰度值设为h0=0,并搜索第一帧图像的灰度的最大值记为h1;

6)、判断h1是否大于h0;如果否,说明h1=h0=0,前方无物体;如果为是,说明前方有物体,并将h1的灰度值赋给h0;

7)、将赋值后的h0与根据汽车行驶速度和制动减速度得到的安全灰度阈值t作比较,如果h0>=t,说明无人驾驶车辆与物体之间的距离小于安全距离,汽车主动紧急制动避险,如果h0<t,说明前方物体暂时没有与无人驾驶汽车相碰的危险,车辆按原速行驶,并继续对前方进行不断的循环拍摄与判断。

进一步的,步骤1)中获取的双目视觉图指通过双目视觉系统分别获取左图片a和右图片b。

进一步的,步骤4)中,灰度初始值h0是指人为规定的无障碍物时的灰度值,即h0=0。

进一步的,步骤(4)中视差图信息与灰度空间值的关系:

利用三角形的相似关系可以得出:

左图片

右图片

这两个公式分别是以点o和点o’为坐标原点,左图片a和右图片b的向量方向相反,因此视差为:

上式中d为视差值,z为深度,由于d与灰度空间值成正比例关系。

进一步的,其中λ=1.2。

进一步的,步骤7)中安全灰度阈值t的计算方法如下:

制动过程中车速为:

t0是开始采取制动到制动开始起作用所需要的时间,v0为采取制动措施前的初始车速,v(0)=v0,v(t0+t1)=0;是平均制动减速度;

对车速v(t)进行积分可求出制动距离

引入安全系数λ,λ为实际安全距离e与制动距离s之比,从而实际安全距离可表示为:

e=λs

安全灰度阈值t=255-e,即可得到安全灰度阈值t。

进一步的,步骤3)中,从预处理后的双目图像中通过深度学习的方法,从深度神经网络系统中快速寻找相对清晰的特征区域p0。

进一步的,步骤2)和步骤3)中双目视觉图包括天气良好情况下拍摄的图片和雾天拍摄的特征不清晰的图片。

与现有技术相比,本发明具有以下有益的技术效果:

本发明一种基于双目视觉的无人驾驶汽车雾天主动避险的方法,首先通过双目视觉系统对前方进行拍摄,获得双目视觉图;然后再对所得双目视觉图进行平滑、光顺、去噪预处理,从预处理后的双目视觉图中寻找相对清晰的特征区域,并在gpu并行架构下,计算得到浓密的视差图,将得到的视差图信息反映到灰度空间0~255,初始灰度值设为h0=0,并搜索第一帧图像的灰度的最大值记为h1,判断h1是否大于h0;如果否,说明h1=h0=0,前方无物体;如果为是,说明前方有物体,并将h1的灰度值赋给h0,将赋值后的h0与根据汽车行驶速度和制动减速度得到的安全灰度阈值t作比较,如果h0>=t,说明无人驾驶车辆与物体之间的距离小于安全距离,汽车主动紧急制动避险,如果h0<t,说明前方物体暂时没有与无人驾驶汽车相碰的危险,车辆按原速行驶,并继续对前方进行不断的循环拍摄与判断,利用了双目视觉系统中视差与深度的关系,无需对物体进行三维重建,只需要不断对比前后两帧图片的深度信息并判断是否达到安全阈值,便能够实现无人驾驶车辆的主动避险,该方法既能够在天气晴朗,光线良好的情况下快速判断车距,主动停车避险,又能够在雾天等光线不良的情况下,保证算法的可靠性。

附图说明

图1为本发明系统结构示意图。

图2为平行配置双目视觉系统计算原理图。

图3为灰度与距离的关系示意图。

具体实施方式

下面结合附图对本发明做进一步详细描述:

如图1所示,一种基于双目视觉的无人驾驶汽车雾天主动避险的方法,具体包括以下步骤:

1)、首先通过双目视觉系统对前方进行拍摄,获得双目视觉图;

2)、对所得双目视觉图进行平滑、光顺、去噪预处理;

3)、从预处理后的双目视觉图中寻找相对清晰的特征区域,并在gpu并行架构下,计算得到浓密的视差图;

4)、将得到的视差图信息反映到灰度空间0~255;

5)、初始灰度值设为h0=0,并搜索第一帧图像的灰度的最大值记为h1;

6)、判断h1是否大于h0;如果否,说明h1=h0=0,前方无物体;如果为是,说明前方有物体,并将h1的灰度值赋给h0;

7)、将赋值后的h0与根据汽车行驶速度和制动减速度得到的安全灰度阈值t作比较,如果h0>=t,说明无人驾驶车辆与物体之间的距离小于安全距离,汽车主动紧急制动避险,如果h0<t,说明前方物体暂时没有与无人驾驶汽车相碰的危险,车辆按原速行驶,并继续对前方进行不断的循环拍摄与判断。

步骤1)中获取的双目视觉图指通过双目视觉系统分别获取左图片a和右图片b。

步骤3)中,从预处理后的双目图像中通过深度学习的方法,从深度神经网络系统中快速寻找相对清晰的特征区域p0。

步骤4)中,灰度初始值h0是指人为规定的无障碍物时的灰度值,即h0=0。

步骤4)中视差图信息与灰度空间值的关系:

以平行配置的双目视觉系统为例,其视觉系统简易的计算原理图如图2所示:

利用三角形的相似关系可以得出:

左图片

右图片

这两个公式分别是以点o和点o’为坐标原点,左图片a和右图片b的向量方向相反,因此视差为:

由上面的公式可以看出视差d与深度z成反比例关系,其他形式的双目视觉系统不改变其视差与深度的反比例关系,由于d与灰度成正比例关系,因此,灰度与深度z也成反比例关系,即灰度值能够直接反应物体的深度情况,灰度值越高说明物体越靠近摄像机,灰度值越低说明物体越远离摄像机。

步骤7)中安全灰度阈值t的计算方法如下:

制动过程中车速为:

t0是开始采取制动到制动开始起作用所需要的时间,v0为采取制动措施前的初始车速,v(0)=v0,v(t0+t1)=0;是平均制动减速度;

对车速v(t)进行积分可求出制动距离

引入安全系数λ,λ为实际安全距离e与制动距离s之比,从而实际安全距离可表示为:

e=λs

把λ=1时的车距称为准安全车距,如果前方物体与无人驾驶车辆的距离在准安全车距以上,则可防止车辆与物体相撞,安全起见取λ=1.2。

步骤2)和步骤3)中双目视觉图既可以是在晴天天气良好情况下拍摄的图片,也可以是在雾天拍摄的特征不清晰的双目图片。如图3所示,灰度与距离的关系示意图,距离越近灰度值越大就是中间那个黑色的,慢慢随着距离变远。

将实际安全车距反映到灰度空间0-255,便可得到我们需要的安全灰度阈值t,根据我国交通法规,当能见度小于500米大于200米时,时速不得超过80公里;能见度小于200米大于100米时,时速不得超过60公里;能见度小于100米大于50米时,时速不得超过40公里;能见度在30米以内时,时速应控制在20公里以下;一般视距10米左右时,时速应控制在5公里以下;雾天行车的最高时速为80km/h,此时所需的安全距离最大,反映到灰度空间的灰度阈值最小,随着速度的降低灰度阈值逐渐增大,因此安全灰度阈值是一个随速度变化而变化的量。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1