一种障碍物检测方法及装置与流程

文档序号:11251336阅读:718来源:国知局
一种障碍物检测方法及装置与流程

本公开涉及安全驾驶技术领域,特别涉及一种障碍物检测方法及装置。



背景技术:

随着现代社会的智能化发展,政府、社会团体以及消费者对汽车安全性的要求越来越高,汽车的自动/辅助驾驶也已成为近年来汽车厂商及互联网等高科技公司竞相追逐的技术热点。在此背景下,基于gps地图、超声波、雷达、单摄像头、双摄像头等多种传感器的汽车自动/辅助驾驶方案应运而生。

但是,现有方案中,多采用多传感器集成的方式进行汽车的碰撞预警或安全控制,系统构成相对复杂且成本昂贵,很难被实际采用。现有被采用的实际解决方案中,尤其在汽车自动/辅助驾驶领域碰撞预警功能的实现上,对于行人及车辆等的障碍物检测及距离的评估多基于单摄像头的二维图像进行处理,并利用不同障碍物的特征参数训练模型,然后利用训练好的模型对二维图像中的障碍物进行检测。

由上述可知,在障碍物检测前需要收集所有可能的障碍物,对于未经训练的障碍物将无法准确检测,由此可能因收集不全,存在无法识别的障碍物,导致检测识别率低下,产生不可避免的安全隐患。



技术实现要素:

为了解决相关技术中存在的无法准确检测未经训练的障碍物,导致检测识别率低下的问题,本公开提供了一种障碍物检测方法。

本公开提供了一种障碍物检测方法,该方法包括:

获取待测场景的双目图像,利用所述双目图像生成所述待测场景的视差图像;

根据所述视差图像中每个像素点的视差值,构建与所述视差图像尺寸相同的彩色图像;其中,所述彩色图像的每个像素点的三原色值与所述视差图像中对应像素点的视差值相关;

将所述彩色图像划分为若干候选区域,并结合所述视差图像中与每个所述候选区域对应的像素点的视差值,确定每个候选区域的三维空间信息;

根据所述每个候选区域的三维空间信息以及预设的障碍物的三维空间信息阈值,确定所述每个候选区域是否为障碍物区域。

本公开还提供了一种障碍物检测装置,该装置包括:

图像获取模块,用于获取待测场景的双目图像,利用所述双目图像生成所述待测场景的视差图像;

图像构建模块,用于根据所述视差图像中每个像素点的视差值,构建与所述视差图像尺寸相同的彩色图像;其中,所述彩色图像的每个像素点的三原色值与所述视差图像中对应像素点的视差值相关;

三维计算模块,用于将所述彩色图像划分为若干候选区域,并结合所述视差图像中与每个所述候选区域对应的像素点的视差值,确定每个候选区域的三维空间信息;

障碍判定模块,用于根据所述每个候选区域的三维空间信息以及预设的障碍物的三维空间信息阈值,确定所述每个候选区域是否为障碍物区域。

本公开的实施例提供的技术方案可以包括以下有益效果:

本公开提供的障碍物检测方法及装置,通过获取待测场景的双目图像,利用双目图像合成视差图像,并利用视差图像生成对应的彩色图像,根据彩色图像中的不同区域的三维空间信息来判断待测场景的不同区域是否是障碍物区域。由此,本公开无需采集障碍物的特征参数进行训练,解决了现有技术可能存在的因障碍物特征收集不全,存在未经训练的障碍物,导致无法准确检测到障碍物的问题,通过本公开提供的方案,提高了障碍物检测的准确性。

应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。

附图说明

此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。

图1是根据本公开所涉及的实施环境的示意图;

图2是根据一示例性实施例示出的一种装置的框图;

图3是根据一示例性实施例示出的一种障碍物检测方法的流程图;

图4a、4b、4c、4d、4e是根据另一示例性实施例示出的依次对二维图像进行处理的效果图;

图5为根据一示例性实施例示出的对步骤s350的细节进行描述的流程示意图;

图6为根据一示例性实施例示出的对步骤s310的细节进行描述的流程示意图;

图7a、7b、7c是根据另一示例性实施例示出的进行立体匹配处理的原理图

图8是根据另一示例性实施例示出的一种障碍物检测方法的流程图;

图9是根据一示例性实施例示出的一种障碍物检测装置的框图;

图10为根据本公开一示例性实施例示出的对图像获取模块910的细节进行描述的框图;

图11为根据本公开一示例性实施例示出的对三维计算模块950的细节进行描述的框图。

具体实施方式

这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。

图1是根据本公开所涉及的实施环境的示意图。该实施环境包括:双目摄像头110和车载终端120;双目摄像头110与车载终端120之间的关联方式,包括硬件的网络关联方式和/或协议,以及二者之间往来的数据关联方式。双目摄像头110包括左、右两个平行等高的摄像头,左、两个摄像头分别采集二维图像,也就是双目图像。左、右两个摄像头采集的二维图像均传输至车载终端120,车载终端120获取了双目摄像头110采集的二维图像后,可以采用本公开实施例提供的障碍物检测方法对图像进行处理,确定障碍物区域。

图2是根据一示例性实施例示出的一种装置200的框图。例如,装置200可以是图1所示实施环境中的车载终端120。

参照图2,装置200可以包括以下一个或多个组件:处理组件202,存储器204,电源组件206,多媒体组件208,音频组件210,传感器组件214以及通信组件216。

处理组件202通常控制装置200的整体操作,诸如与显示,电话呼叫,数据通信,相机操作以及记录操作相关联的操作等。处理组件202可以包括一个或多个处理器218来执行指令,以完成下述的方法的全部或部分步骤。此外,处理组件202可以包括一个或多个模块,便于处理组件202和其他组件之间的交互。例如,处理组件202可以包括多媒体模块,以方便多媒体组件208和处理组件202之间的交互。

存储器204被配置为存储各种类型的数据以支持在装置200的操作。这些数据的示例包括用于在装置200上操作的任何应用程序或方法的指令。存储器204可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(staticrandomaccessmemory,简称sram),电可擦除可编程只读存储器(electricallyerasableprogrammableread-onlymemory,简称eeprom),可擦除可编程只读存储器(erasableprogrammablereadonlymemory,简称eprom),可编程只读存储器(programmablered-onlymemory,简称prom),只读存储器(read-onlymemory,简称rom),磁存储器,快闪存储器,磁盘或光盘。存储器204中还存储有一个或多个模块,该一个或多个模块被配置成由该一个或多个处理器218执行,以完成下述图3、图5、图6、图8任一所示方法中的全部或者部分步骤。

电源组件206为装置200的各种组件提供电力。电源组件206可以包括电源管理系统,一个或多个电源,及其他与为装置200生成、管理和分配电力相关联的组件。

多媒体组件208包括在所述装置200和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(liquidcrystaldisplay,简称lcd)和触摸面板。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。屏幕还可以包括有机电致发光显示器(organiclightemittingdisplay,简称oled)。

音频组件210被配置为输出和/或输入音频信号。例如,音频组件210包括一个麦克风(microphone,简称mic),当装置200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器204或经由通信组件216发送。在一些实施例中,音频组件210还包括一个扬声器,用于输出音频信号。

传感器组件214包括一个或多个传感器,用于为装置200提供各个方面的状态评估。例如,传感器组件214可以检测到装置200的打开/关闭状态,组件的相对定位,传感器组件214还可以检测装置200或装置200一个组件的位置改变以及装置200的温度变化。在一些实施例中,该传感器组件214还可以包括磁传感器,压力传感器或温度传感器。

通信组件216被配置为便于装置200和其他设备之间有线或无线方式的通信。装置200可以接入基于通信标准的无线网络,如wifi(wireless-fidelity,无线保真)。在一个示例性实施例中,通信组件216经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件216还包括近场通信(nearfieldcommunication,简称nfc)模块,以促进短程通信。例如,在nfc模块可基于射频识别(radiofrequencyidentification,简称rfid)技术,红外数据协会(infrareddataassociation,简称irda)技术,超宽带(ultrawideband,简称uwb)技术,蓝牙技术和其他技术来实现。

在示例性实施例中,装置200可以被一个或多个应用专用集成电路(applicationspecificintegratedcircuit,简称asic)、数字信号处理器、数字信号处理设备、可编程逻辑器件、现场可编程门阵列、控制器、微控制器、微处理器或其他电子元件实现,用于执行下述方法。

图3是根据一示例性实施例示出的一种障碍物检测方法的流程图。该障碍物检测方法的适用范围和执行主体,例如,该方法用于图1所示实施环境的车载终端120。另外,该方法还可以用于其他交通工具(如飞机、轮船)、智能设备(如智能拐杖)、智能穿戴设备(如智能安全头盔等)。如图3所示,该障碍物检测方法,可以包括以下步骤:

步骤s310:获取待测场景的双目图像,利用所述双目图像生成所述待测场景的视差图像;

以具体应用举例来说,可以在车辆的前端,面向车辆行驶的方向,设置双目摄像头,由双目摄像头采集双目图像。如图4a和4b所示,为双目摄像头的左、右两个摄像头分别采集的待测场景的二维图像。车载终端中可以设置图像处理引擎,由图像处理引擎将双目摄像头采集的双目图像生成视差图像,即三维立体图像。图像处理引擎可有cpu,dsp,gpu,fpga或专用asic来实现。该图像处理引擎的输入为双目摄像头分别采集的二维图像,输出为大小与二维图像相同的三维立体图像,如图4c所示。三维立体图像的灰度值对应为立体匹配合成后的二维图像像素点的视差值。其中,图像处理引擎生成视差图像的具体过程参见下文。

进一步的,在步骤s310获取待测场景的双目图像,利用所述双目图像生成所述待测场景的视差图像之后,所述方法还可以包括以下步骤:

步骤s321:对所述视差图像进行降噪处理和边缘提取操作处理;

具体的,可以由车载终端的嵌入式微处理器对视差图像进行基于高斯等滤波器的降噪处理,并基于canny等算法提取视差图像的边缘信息。其中,对于经过边缘提取操作后的图像,边缘像素的灰度值即为该像素点的视差值,边缘像素以外的其他像素点的视差值为0。

步骤s322:将经过所述边缘提取操作处理后的视差图像的非边缘像素点进行图像修复操作,填充非边缘像素点的视差值,使得所述视差图像的每个像素点的视差值呈渐变状态。

需要说明的是,针对经过步骤s321处理后的视差图像,对视差图像的非边缘像素点(视差值为0的像素)进行in-painting(图像修复)操作,即基于各个方向的边缘像素的视差值填充非边缘像素(视差值为0的像素)的视差值,使得视差图像中的每个像素点均具备非0视差值。如图4d所示,为经过in-painting操作后的视差图像,视差图像的每个像素点的视差值呈渐变状态,换句话说,视差图像的每个像素点的灰度值有一个变化,不是全为黑或全为白。

步骤s330:根据所述视差图像中每个像素点的视差值,构建与所述视差图像尺寸相同的彩色图像;其中,所述彩色图像的每个像素点的三原色值与所述视差图像中对应像素点的视差值相关;

其中,可以由车载终端的嵌入式微处理器将图像处理引擎生成的视差图像进一步生成与视差图像尺寸相同的彩色图像,如图4e所示。具体的,嵌入式微处理器新建与视差图像尺寸相同的彩色图像;其中,视差图像每个像素点与彩色图像的每个像素点一一对应。嵌入式微处理器根据视差图像中每个像素点的视差值,将彩色图像的对应像素点进行色彩填充。

需要解释的是,基于经过in-painting操作后的视差图像,结合双目摄像头的两个摄像头之间的距离b以及摄像头镜头的焦距f,通过公式z=b*f/d,d为视差值,就可以计算出每个像素点在实际三维空间中的深度信息,即z值。之后可以根据深度信息对彩色图像的对应像素点进行色彩填充。例如,可以根据所有像素点的深度信息的波动范围,调整彩色图像的每个像素点的rgb(三原色)值,使每个像素点的rgb值在0-255之间波动。

根据需要,还可以对彩色图像进行基于高斯等滤波器的降噪及平滑处理。

步骤s350:将所述彩色图像划分为若干候选区域,并结合所述视差图像中与每个所述候选区域对应的像素点的视差值,确定每个候选区域的三维空间信息;

需要说明的是,可以对彩色图像进行像素级分割,并将分割后的图像划分为若干候选区域。对于划分出来的每个候选区域,可以根据每个候选区域在视差图像中对应位置的像素点的视差值,确定每个候选区域的三维空间信息。其中,三维空间信息包括每个候选区域对应的长、宽、高、位置等信息。

图5为根据一示例性实施例示出的对步骤s350的细节进行描述的流程示意图,如图5所示,步骤s350具体包括:

步骤s351:根据所述彩色图像的不同区域的颜色不同,将所述彩色图像划分为若干候选区域;

具体的,将颜色相同的一个区域划分在一起,通过进行划分,可以将车辆、马路,树木等分别划分在不同的区域。

步骤ss52:根据所述视差图像中每个像素点的视差值,计算所述每个像素点的三维空间坐标;

具体的,根据视差图像中每个像素点的视差值,计算每个像素点的三维空间坐标,可以采用以下公式进行计算:

z=b*f/d

x=(w/2-u)*b/d-b/2

y=h’-(v-h/2)*b/d

其中,(x,y,z)为所求的世界坐标系下的三维空间坐标值,b为双目摄像头的两个摄像头之间的距离,f为摄像头镜头焦距,d为是视差值,h’为双摄像头距离地面的高度,视差图像尺寸大小为(w,h),例如:1280*960,像素点在图像坐标系中的坐标为(u,v),例如像素(100,100)。

由于b、f、d、h’以及(w,h)和(u,v)均为已知量,由此通过上述公式就可以计算出划分后的每个候选区域的像素点的三维空间坐标值。

步骤s353:根据每个候选区域包含的像素点的三维空间坐标确定所述每个候选区域的尺寸和位置。

需要说明的是,在计算出每个候选区域的每个像素点的三维空间坐标值(x,y,z)后,就可以直接通过计算坐标值的差值,得到每个区域的长、宽、高尺寸信息。并且根据每个区域内的所有像素点的三维空间坐标值可以确定每个区域的所处的空间位置。

步骤s370:根据所述每个候选区域的三维空间信息以及预设的障碍物的三维空间信息阈值,确定所述每个候选区域是否为障碍物区域。

需要说明的是,在得到了每个候选区域的三维空间信息之后,例如,在计算得到出每个候选区域的尺寸和位置之后,可以根据预先设定的障碍物的三维空间阈值,如长宽高的阈值和位置的阈值,对划分后的每个候选区域做障碍物判定操作,即确定每个候选区域是否为障碍物区域。举例来说,当某个区域的长宽高的尺寸大于预设的长宽高阈值,且该区域的位置处于预设的障碍物位置范围内时,认为该区域属于障碍物区域。举例来说,马路所属的候选区域只有长宽,没有高度,所以马路所属的候选区域不属于障碍物区域。同理,可以分别判断出其他候选区域是否为障碍物区域。

对于障碍物的检测,现有技术中主要通过收集可能存在的不同障碍物的特征参数训练模型,然后利用训练后的模型检测采集的待测场景的二维图像中是否存在障碍物。由此未经训练的障碍物,将无法准确检测到。本公开上述实施例提供的障碍物检测方法,通过获取待测场景的双目图像,利用双目图像合成视差图像,并利用视差图像生成对应的彩色图像,根据彩色图像中的不同区域的三维空间信息来判断待测场景的不同区域是否是障碍物区域。由此,本公开无需采集障碍物的特征参数进行训练,解决了现有技术可能存在的因障碍物特征收集不全,存在未经训练的障碍物,导致无法准确检测到障碍物的问题,通过本公开提供的方案,提高了障碍物检测的准确性。

图6为根据一示例性实施例示出的对步骤s310的细节进行描述的流程示意图,如图6所示,步骤s310具体包括:

步骤s311:获取双目图像采集装置采集的所述待测场景的第一二维图像和第二二维图像;

以图1所示实施场景举例来说,双目图像采集装置为双目摄像头110,左摄像头和右摄像头分别采集待测场景的二维图像,为进行区分,分别成为第一二维图像和第二二维图像。车载终端获取左摄像头采集的二维图像和右摄像头采集的二维图像。

步骤s312:以所述第一二维图像为基准图像,所述第二二维图像为比较图像,对所述第一二维图像和第二二维图像进行立体匹配处理,确定所述基准图像的各个像素点所对应的视差值;

其中,可以将左摄像头采集的二维图像作为基准图像,将右摄像头采集的二维图像作为比较图像,当然也可以,将右摄像头采集的二维图像作为基准图像,将左摄像头采集的二维图像作为比较图像。之后针对比较图像和基准图像进行三维图像的立体匹配处理。

具体的,首先针对比较图像,遍历需要进行立体匹配的中心像素点,并在该中心像素点周围建立固定大小(wxh)的窗口,如图7a所示,作为该中心像素点与基准图像进行立体匹配时的最小计算单位。针对选定的比较图像的像素中心点,将相应的窗口映射在同y坐标的基准图像上,如图7b所示。从左到右的顺序遍历同y轴的基准图像的窗口中心像素点,运用sad(sumofabsolutedifference对应像素差的绝对值)算法或ssd(sumofsquareddifference对应像素差的平方和)算法进行差异cost(值)计算,并保存相应计算结果,如图7c所示。在sad或ssd计算时,与比较图像差异cost最小的窗口中心像素点将被作为该选定像素中心点的匹配点,比较图像的选定像素中心点与基准图像的匹配点之间的位移差(x坐标之差)即为如图7c所示的最小视差d’,其相应的深度信息则为在三维图像中,该基准图像像素中心点的对应距离。通过遍历比较图像中的所有像素中心点,将得到基准图像的各个像素点所对应的视差值。

步骤s313:将所述基准图像的各个像素点所对应的视差值作为所述视差图像的对应像素点的灰度值生成所述待测场景的视差图像。

具体的,通过遍历比较图像中的所有像素中心点,将计算出大小与基准图像相同的三维立体图像,即视差图像。基准图像的各像素点所对应的视差值,则将保存为三维立体图像的各像素点的灰度值。

进一步的,在上述示例性实施例的基础上,在步骤s370确定每个候选区域是否为障碍物区域之后,如图8所示,本公开提供的障碍物检测方法还可以包括以下步骤:

步骤810:若确定存在障碍物区域,则根据所述视差图像中与障碍物区域对应的各个像素点的视差值,计算所述障碍物区域的各个像素点的深度值;

需要说明的是,若在步骤s370中,确定了某个候选区域为障碍物区域,则可以利用公式z=b*f/d(d为视差值,b为双目摄像头的两个摄像头之间的距离,f为摄像头镜头焦距),根据视差图像中给出的障碍物区域对应的各个像素点的视差值,即d为已知量,计算出障碍物区域的各个像素点的深度值,即各个像素点的z值。

步骤811:对所述障碍物区域的所有像素点的深度值进行均值化处理,得到与待测场景中障碍物之间的实际距离;

具体的,对于障碍物区域,在计算出障碍物区域对应的所有像素点的深度值之后,可以通过计算深度值的平均值,得到与障碍物之间的实际距离。例如行驶中的车辆与障碍物之间的距离。

步骤812:根据所述与待测场景中障碍物之间的实际距离,估计与障碍物发生碰撞的预测时间,并在所述预测时间小于风险阈值时,发出报警信号。

需要解释的是,在计算出与障碍物之间的实际距离后,可以根据车速,估计可能与障碍物发生碰撞的时间。当估计得到的发生碰撞的时间(如1.5秒后发生碰撞)小于风险阈值(如2秒),则判定与前方障碍物发生碰撞的可能性较大,此时可以将报警信号发送到报警终端,以实现预警的功能,

或者,根据实际距离的实时变化,可以计算出与障碍物的相对速度变化,进而估计出与障碍物可能发生碰撞的时间,当该时间小于风险阈值时,发出报警信号。

更进一步的,在上述任一示例性实施例的基础上,在步骤s370确定每个候选区域是否为障碍物区域之后,本公开提供的障碍物检测方法还可以包括:

若确定存在障碍物区域,则根据所述双目图像中障碍物区域对应的灰度值特征信息或色彩值特征信息,确定障碍物的类别。

需要说明的是,如果确定了某个候选区域为障碍物区域,则可以结合双目图像采集装置采集的二维图像,根据二维图像中障碍物区域对应位置的灰度值或色彩值特征信息,确定障碍物的类别。例如,色彩是绿色的表示树木。以此类推,对于不同的障碍物,均具备各自的灰度特征或色彩特征,通过获取二维图像中障碍物区域的灰度值特征信息和色彩值信息,就可以确定障碍物的类别,是人、车或其他障碍物,进一步提高障碍物检测的准确度。如果将该方法运用到交通运输领域,也可以提高安全驾驶的稳定性和可靠性。

下述为本公开装置实施例,可以用于执行本公开上述车载终端120执行的障碍物检测方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开障碍物检测方法实施例。

图9是根据一示例性实施例示出的一种障碍物检测装置的框图,该障碍物检测装置可以用于图1所示实施环境的车载终端120中,执行图3、图5、图6、图8任一所示的障碍物检测方法的全部或者部分步骤。如图9所示,该障碍物检测装置包括但不限于:图像获取模块910、图像构建模块930、三维计算模块950及障碍判定模块970;

图像获取模块910,用于获取待测场景的双目图像,利用所述双目图像生成所述待测场景的视差图像;

图像构建模块930,用于根据所述视差图像中每个像素点的视差值,构建与所述视差图像尺寸相同的彩色图像;其中,所述彩色图像的每个像素点的三原色值与所述视差图像中对应像素点的视差值相关;

三维计算模块950,用于将所述彩色图像划分为若干候选区域,并结合所述视差图像中与每个所述候选区域对应的像素点的视差值,确定每个候选区域的三维空间信息;

障碍判定模块970,用于根据所述每个候选区域的三维空间信息以及预设的障碍物的三维空间信息阈值,确定所述每个候选区域是否为障碍物区域。

上述装置中各个模块的功能和作用的实现过程具体详见上述障碍物检测方法中对应步骤的实现过程,在此不再赘述。

图像获取模块910比如可以是图2中的某一个物理结构通信组件216。

图像构建模块930、三维计算模块950及障碍判定模块970也可以是功能模块,用于执行上述障碍物检测方法中的对应步骤。可以理解,这些模块可以通过硬件、软件、或二者结合来实现。当以硬件方式实现时,这些模块可以实施为一个或多个硬件模块,例如一个或多个专用集成电路。当以软件方式实现时,这些模块可以实施为在一个或多个处理器上执行的一个或多个计算机程序,例如图2的处理器218所执行的存储在存储器204中的程序。

图10为根据本公开一示例性实施例示出的对图像获取模块910的细节进行描述的框图,如图10所示,该图像获取模块910可以包括但不限:

图像获取单元911,用于获取双目图像采集装置采集的所述待测场景的第一二维图像和第二二维图像;

立体匹配单元912,用于以所述第一二维图像为基准图像,所述第二二维图像为比较图像,对所述第一二维图像和第二二维图像进行立体匹配处理,确定所述基准图像的各个像素点所对应的视差值;

图像生成单元913,用于将所述基准图像的各个像素点所对应的视差值作为所述视差图像的对应像素点的灰度值生成所述待测场景的视差图像。

可选的,所述装置还可以包括但不限:

边缘提取模块,用于对所述视差图像进行降噪处理和边缘提取操作处理;

图像修复模块,用于将经过所述边缘提取操作处理后的视差图像的非边缘像素点进行图像修复操作,填充非边缘像素点的视差值,使得所述视差图像的每个像素点的视差值呈渐变状态。

图11为根据本公开一示例性实施例示出的对三维计算模块950的细节进行描述的框图,如图11所示,所述三维计算模块950可以包括但不限:

图像分割单元951,用于根据所述彩色图像的不同区域的颜色不同,将所述彩色图像划分为若干区域;

坐标计算单元952,用于根据所述视差图像中每个像素点的视差值,计算所述每个像素点的三维空间坐标;

区域计算单元953,用于根据每个候选区域包含的像素点的三维空间坐标确定所述每个候选区域的尺寸和位置。

在上述任一示例性实施例的基础上,可选的,所述装置还可以包括但不限:

深度计算模块,用于当确定存在障碍物区域时,根据所述视差图像中与障碍物区域对应的各个像素点的视差值,计算所述障碍物区域的各个像素点的深度值;

距离计算模块,用于对所述障碍物区域的所有像素点的深度值进行均值化处理,得到与待测场景中障碍物之间的实际距离;

障碍预警模块,用于根据所述与待测场景中障碍物之间的实际距离,估计与障碍物发生碰撞的预测时间,并在所述预测时间小于风险阈值时,发出报警信号。

在上述任一示例性实施例的基础上,可选的,所述装置还可以包括但不限:

障碍识别模块,用于当确定存在障碍物区域时,根据所述双目图像中障碍物区域对应的灰度值特征信息或色彩值特征信息,确定障碍物的类别。

可选的,本公开还提供一种障碍物检测装置,该障碍物检测装置可以用于图1所示实施环境的车载终端120中,执行图3、图5、图6、图8任一所示的障碍物检测方法的全部或者部分步骤。所述装置包括:

处理器;

用于存储处理器可执行指令的存储器;

其中,所述处理器被配置为执行:

获取待测场景的双目图像,利用所述双目图像生成所述待测场景的视差图像;

根据所述视差图像中每个像素点的视差值,构建与所述视差图像尺寸相同的彩色图像;其中,所述彩色图像的每个像素点的三原色值与所述视差图像中对应像素点的视差值相关;

将所述彩色图像划分为若干候选区域,并结合所述视差图像中与每个所述候选区域对应的像素点的视差值,确定每个候选区域的三维空间信息;

根据所述每个候选区域的三维空间信息以及预设的障碍物的三维空间信息阈值,确定所述每个候选区域是否为障碍物区域。

该实施例中的装置的处理器执行操作的具体方式已经在有关该障碍物检测方法的实施例中执行了详细描述,此处将不做详细阐述说明。

在示例性实施例中,还提供了一种存储介质,该存储介质为计算机可读存储介质,例如可以为包括指令的临时性和非临时性计算机可读存储介质。该存储介质例如包括指令的存储器204,上述指令可由装置200的处理器218执行以完成上述障碍物检测方法。

应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1