专利名称:基于视差图像素分类校正优化的立体匹配方法
技术领域:
本发明涉及立体视觉技术领域,具体为一种基于视差图像素分类校正优化的立体匹配方法。
背景技术:
立体匹配是机器视觉研究领域的热点和难点,在立体视觉领域中有着广泛的应用和前景。立体匹配是通过对三维空间中的同一场景在不同视点下的立体图像建立一一对应关系,来得到该场景视差映射的过程。立体匹配的难点主要是消除匹配图像的歧义性和模糊性。歧义性和模糊性是由于采集图像时的噪声以及场景自身的剧烈变化、弱纹理以及重复纹理区域造成的。为了应对这些病态的问题,立体匹配算法采用了不同的优化方式,依据优化方式的分类目前主要有两种不同算法:局部匹配算法和全局匹配算法。全局匹配算法是建立一个全局的能量代价函数,它由数据项、平滑项和依据不同的场景加入的一些其他惩罚项构成,经过全局信息约束,在全局范围内进行能量函数的最优化求解,得到全局视差图,它具有对局部信息敏感性小且有很高的精确性的特点,但是存在计算代价大、计算耗时多的缺点;局部匹配算法在选定的窗口内进行,建立只包含数据项的能量代价函数,再进行优化求解,该方法具有耗时少、计算简单的优点,但是由于窗口大小、形状以及代价函数设定具有局限性,所以会造成在图像深度不连续区域、闭塞区域以及弱纹理重复纹理区域出现误匹配的情况。所以,现有的立体匹配方法中存在视差校正优化不够精确的缺点,因此,为改善匹配精度,有必要对现有的立体匹配方法进行改进。
发明内容
本发明为了解决现有的立体匹配方法存在的视差校正优化不够精确的问题,提供了一种基于视差图像素分类校正优化的立体匹配方法。本发明是采用如下技术方案实现的:一种基于视差图像素分类校正优化的立体匹配方法,包括如下步骤:( I )、进行初始视差值的估计:分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,得出左、右视差图,再经过左右一致性检测(交叉验证)剔除误匹配点,得到初始可靠视差图。具体如下:分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,并依据场景调节它们的权重,具体如式(I):C(X, y, d) = ω ^Csad (x, y, d) + ω 2*CGEAD (χ,y, d), (I)其中:
权利要求
1.一种基于视差图像素分类校正优化的立体匹配方法,其特征在于:包括如下步骤: (I )、进行初始视差值的估计:分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,得出左、右视差图,再经过左右一致性检测剔除误匹配点,得到初始可靠视差图; 具体如下: 分别以左、右视图为参考图,使用基于灰度差和梯度相结合的方法进行匹配代价的聚合,并依据场景调节它们的权重,具体如式(I): C (X,y, d) = ω ^Csad (x, y, d) + ω 2*CGEAD (x, y, d), (I) 其中:
2.根据权利要 求1所述的基于视差图像素分类校正优化的立体匹配方法,其特征在于:步骤(II)中的阈值a s=0.04,Ft=0.2,Nt=50 ;步骤(IV)中的阈值th=3。
全文摘要
本发明涉及立体视觉技术领域,具体为一种立体匹配方法,解决现有立体匹配方法存在视差校正优化不够精确的问题。一种基于视差图像素分类校正优化的立体匹配方法,包括如下步骤(Ⅰ)以左、右视图为参考,基于灰度差和梯度相结合的方法来进行代价聚合,得到左、右视差图,并经过左右一致性检测生成初始可靠视差图;(Ⅱ)进行相关置信度检测和弱纹理区域检测,将像素分类为稳定匹配像素点、不稳定匹配像素点、闭塞区域像素点、弱纹理区域像素点;(Ⅲ)对不稳定匹配点采用基于改进的自适应权重算法进行校正,对闭塞区域点和弱纹理区域点采用误匹配像素校正方法进行校正;(Ⅳ)将校正完的视差图再通过基于分割的算法进行优化,得到稠密视差图。
文档编号G06T5/50GK103226821SQ20131015360
公开日2013年7月31日 申请日期2013年4月27日 优先权日2013年4月27日
发明者张丽红, 何树成 申请人:山西大学