立体摄像头、车辆驾驶辅助装置及车辆的制作方法_4

文档序号:9363240阅读:来源:国知局
部分的曝光时间的第二图像和具有相当于第二帧区间的另一部分的曝光时间的第三图像。
[0166]尤其,第二图像传感器825可借助电信号的开闭,来输出具有互不相同的曝光时间的第二图像和第三图像。
[0167]另一方面,图像处理器830可执行对第一图像传感器及第二图像传感器820、825的曝光时间的设定,并可进行控制,使得第一图像传感器及第二图像传感器825根据所设定的曝光时间来运行。
[0168]另一方面,立体摄像头195还可具有第一光圈194a(图9a),用于开闭向第一镜头193a入射的光;第二光圈194b (图9a),用于开闭向第二镜头193b入射的光,以对第一图像传感器及第二图像传感器820、825进行曝光时间的调节。并且,可随着第一光圈及第二光圈194a、194b (图9a)的开闭,来取得具有互不相同的曝光时间的图像。对此,将参照图9a在后面进行记述。
[0169]另一方面,图像处理器830可进行控制,使得在多个帧期间的第一帧期间由第一图像传感器及第二图像传感器820、825取得的图像的曝光时间互不相同,并且在第二帧期间由第一图像传感器及第二图像传感器820、825取得的图像的曝光时间互不相同。S卩,图像处理器830能够以按帧为单位使第一图像传感器及第二图像传感器820、825的曝光时间发生变化的方式进行控制。
[0170]例如,图像处理器830可基于由第一图像传感器及第二图像传感器820、825取得的曝光时间互不相同的图像来取得RGB图像,在第二帧期间可基于由第一图像传感器及第二图像传感器820、825取得的曝光时间相同的图像来生成视差图。对此,将在说明图16?图17时进行详述。
[0171 ] 另一方面,若进入隧道,则图像处理器830可进行控制,使得第一图像传感器及第二图像传感器820、825中的至少一个图像传感器的曝光时间增加;若离开隧道,则图像处理器830可进行控制,使得第一图像传感器及第二图像传感器820、825中的至少一个图像传感器的曝光时间减少。对此,将在说明图18a?图18c时进行详述。
[0172]另一方面,车辆驾驶辅助装置100 (图3)的处理器170可接收由立体摄像头195的图像处理器830生成的视差图及RGB图像并执行与此相关的信号处理。
[0173]例如,处理器170可基于视差图及RGB图像来执行对RGB图像的对象检测,在完成对象检测之后,继续跟踪对象的动向。并且,可执行对周边车辆的距离计算、所检测的周边车辆的速度计算、与所检测的周边车辆的速度差异计算等。
[0174]或者,处理器170可基于所计算的周边车辆的速度、与周边车辆的距离等,来生成并输出用于控制的车辆200的姿势或行驶的控制信号。例如,处理器170可生成用于控制车辆的转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一种的控制信号。
[0175]另一方面,不同于上述内容,图像处理器830除了可生成视差图及RGB图像之外,还可以进一步地,基于视差图及RGB图像来执行对车辆前方的RGB图像的对象检测,在完成对象检测之后,继续跟踪对象动向。并且,上述图像处理器830可执行对周边车辆的距离计算、所检测的周边车辆的速度计算、与所检测的周边车辆的速度差异计算等。
[0176]此时,处理器170从图像处理器830接收对周边车辆的距离信息、所检测的周边车辆的距离信息、所检测的周边车辆的速度信息、与所检测的周边车辆的速度差异信息,并基于上述信息来生成用于控制车辆的转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一种的控制信号。
[0177]另一方面,不同于上述内容,图像处理器830可以生成视差图及RGB图像、检测对象、跟踪对象的定向、进行对周边车辆的距离计算、所检测的周边车辆的速度计算、与所检测的周边车辆的速度差异计算,以及生成用于控制车辆的转向驱动部752、制动器驱动部753、动力源驱动部754、悬架驱动部756中的至少一种的控制信号。
[0178]S卩,如图8b所示,立体摄像头195可具有第一摄像头195a、第二摄像头195b及图像处理器830,此时的车辆驾驶辅助装置100 (图3)可不另行具有如图8a所示的处理器170。S卩,立体摄像头195的图像处理器830可执行上述处理器170的全部功能。
[0179]此时的图8b的立体摄像头195可以是与上述的车辆驾驶辅助装置100 (图3)相同的概念。
[0180]图9a?图9d及图10为图8a或图8b的立体摄像头的工作说明所参照的图。
[0181]首先,图9a为立体摄像头900a的第一摄像头195a和第二摄像头195b的剖视图的一例。
[0182]第一摄像头195a可具有第一光圈194a、第一镜头820a、第一图像传感器820a,第二摄像头195b可具有第二光圈194b、第二镜头820b、第二图像传感器820b。
[0183]第一光圈194a可开闭向第一镜头820a入射的光,第二光圈194b可开闭向第二镜头820b入射的光。
[0184]第一图像传感器820a可具有RGB过滤器910a以及用于将光信号转换为电信号的传感器阵列911a,以取得RGB颜色。
[0185]第二图像传感器825a可具有RGB过滤器915a以及用于将光信号转换为电信号的传感器阵列911b,以取得RGB颜色。
[0186]由此,第一图像传感器820a和第二图像传感器815a可分别取得并输出RGB图像。
[0187]图9b例示图9a的第一传感器阵列911a的简要电路图。
[0188]参照附图,第一传感器阵列911a可具有像素电路部1010、行译码器1013、列译码器 1016。
[0189]像素电路部1010内的每个像素可具有用于检测光的光电二极管和用于向列和行传输由光电二极管所检测的信号的电路元件。并且,由各像素所取得的电信号可通过行译码器1013和列译码器1016向外部输出。
[0190]图9c用于说明基于由第一图像传感器820a和第二图像传感器825a分别取得的第一图像920a和第二图像925a的图像处理器830的动作的参照图。
[0191]由第一图像传感器820a取得的第一图像920a可以是基于RGB颜色的图像,由第二图像传感器825a取得的第二图像925a可以是基于RGB颜色的图像。
[0192]另一方面,根据本发明的实施例,第一图像传感器820可取得与至少一个曝光时间相对应的图像,第二图像传感器825可取得与多个曝光时间相对应的图像。
[0193]图像处理器830可基于由第一图像传感器及第二图像传感器820、825取得的图像来生成视差图940及RGB图像950。此时,所生成的RGB图像950可以是基于高动态范围(High dynamic range)图像的 RGB 图像。
[0194]尤其,根据本发明的实施例,优选地,由第一图像传感器820取得的图像的曝光时间与由第二图像传感器825取得的图像的曝光时间互不相同。
[0195]图像处理器830可基于由第一图像传感器及第二图像传感器820、825取得的、与互不相同的曝光时间相对应的图像,来生成视差图940及RGB图像950。
[0196]由此,图像处理器830可取得感光度损失和生成物减少的视差图940及RGB图像950。
[0197]另一方面,图9d例示图像处理器的内部框图的一例。
[0198]上述的图像处理器830可另行具有生成视差图940的立体图像生成部832及生成RGB图像950的高动态范围图像生成部834。
[0199]具体而言,立体图像生成部832可求出由第一图像传感器及第二图像传感器820、825取得的图像920a、925a之间的视差(disparity),并生成基于视差的视差图。尤其,可生成具有图像920a、925a之间的亮度成分的视差的、基于亮度成分的视差的视差图。
[0200]尤其,对于具有互不相同的曝光时间的图像,以使得具有相同的曝光时间的方式执行信号处理之后,基于具有相同的曝光时间的图像,来生成视差图。
[0201]S卩,立体图像生成部832可生成由第一图像传感器820取得图像相结合而成的第一结合图像,由第二图像传感器825取得图像相结合而成的第二结合图像。并且,基于所生成的第一结合图像及第二结合图像,可生成视差图(disparity map)。此时的第一结合图像和第二结合图像可以是与相同的第一帧区间相对应的图像。
[0202]高动态范围图像生成部834可基于具有互不相同的曝光时间的图像来生成基于RGB的图像。具体而言,在与各曝光时间相对应的图像中,提取部分区域,并组合所提取的部分区域,来生成新的RGB图像。尤其,提取与各曝光时间相对应的亮度区域,组合所提取的亮度区域,来生成新的RGB图像。由此,可生成基于高动态范围(High dynamic range)图像的RGB图像。S卩,可取得实现反差和动态范围的高动态范围图像。
[0203]另一方面,图10例示了由第一图像传感器195a取得第一图像1010,由第二图像传感器195b取得第二图像1012。尤其,例示了第一图像的曝光时间为TEXk,第二图像的曝光时间为远远小于TEXk的TEXl。
[0204]由此,由于曝光时间差异大,在第一图像1010和第二图像1012中的至少一个中,将发生饱和(saturat1n)或因过暗导致未能正常拍摄的部分。因此,当生成基于亮度的视差图时,品质将严重低下。
[0205]在本发明中,为了解决这种存在问题,使用如图1 Ia?图18c所示的方法。
[0206]图1la?图18c为图8a或图8b的图像处理器的工作说明所参照的图。
[0207]首先,图1la例示了在第一帧区间Tex内由第一图像传感器820取得的图像1110和由第二图像传感器825取得的图像1111、1113。
[0208]参照附图,图像1110的曝光时间Texl、图像1111的曝光时间Tex2、图像1113的曝光时间Tex3均不同。例如,图像1111的曝光时间Tex2可以是0.4Texl,图像1113的曝光时间Tex3可以是0.6Texlo
[0209]接着,图1lb例示了基于图1la的图像来生成视差图1311。
[0210]图像处理器830能够结合以第一帧区间Tex为基准由第二图像传感器825的取得的图像1111、1113。由此,可生成第二结合图像1212。
[0211]另一方面,图像处理器830可将图像1110生成为第一结合图像1211。另一方面,第一结合图像1211和第二结合图像1212具有几乎类似的曝光时间,因此,可以是相似亮度的RGB视频。
[0212]并且,图像处理器830可利用所生成的第一结合图像及第二结合图像1211、1212,来生成感光度损失和生成物减少的视差图1311。
[0213]另一方面,所生成的视差图1311可参照于RGB图像1220的生成。
[0214]接着,图1lc例示了基于图1la的图像来生成RGB图像1220。
[0215]图像处理器830可从具有互不相同的曝光时间的图像1110、1111、1113来生成基于高动态范围的RGB图像。
[0216]具体而言,在曝光时间最长的图像1110中,亮的区域为主,因此,暗的区域会变得模糊,而在曝光时间最短的图像1111中,暗的区域为主,因此,亮的区域会变得模糊。
[0217]图像处理器830可从曝光时间最长的图像1110中提取亮的区域,
当前第4页1 2 3 4 5 6 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1