一种巡检机器人视觉里程计方法

文档序号:31628977发布日期:2022-09-24 01:24阅读:112来源:国知局
一种巡检机器人视觉里程计方法

1.本发明涉及机器人视觉领域,尤其是涉及一种巡检机器人视觉里程计方法。


背景技术:

2.电力行业中,智能巡检机器人在越来越多的电力场景中辅助或替代人工完成常规的巡检任务,但现有的机器人巡检定位技术大多依靠固定轨道或者标识,无法在复杂环境中进行移动巡检。通常,机器人携带视觉传感器进行检测,那么利用视觉里程计进行定位不仅节省成本,也能提高机器人移动的自主性和有效性。现有的方法中,有采用将视觉里程计看作归类问题,使用cnn处理输入图像,实现视觉里程计;还有将循环神经网络和cnn结合,增加图像序列的时序建模,端到端地实现位姿估计。但是,上述监督学习方式的真值数据集获取成本较高,且监督训练数据集数量有限,泛化性较低。


技术实现要素:

3.本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种巡检机器人视觉里程计方法,利用无监督学习方式实现单目视觉里程计,而且具有良好的精度和可靠性。
4.本发明的目的可以通过以下技术方案来实现:
5.一种巡检机器人视觉里程计方法,包括以下步骤:
6.s1、对机器人安装的可见光相机进行标定,获取相机内部参数;
7.s2、在机器人运行过程中通过可见光相机获取的视频按设定时间截取图像;
8.s3、选取截取图像中的相邻两帧,前一帧图像标记为源帧is,后一帧图像标记为目标帧i
t

9.s4、将源帧is输入至无监督深度估计网络,得到预测深度ds;所述无监督深度估计网络中加入基于densenet理论的密集模块,并且进行密集模块的轻量化改进,在密集模块中通过跳跃连接将每一处理单元的输出特征级联至最后密集模块最后;
10.s5、利用光流网络对源帧is和目标帧i
t
预测前向光流和后向光流,根据前后光流一致性原则筛选得到优质匹配特征点对;所述光流网络采用liteflownet网络模型;
11.s6、根据优质匹配特征点对通过三角测量获得计算深度d
′s;
12.s7、将预测深度ds和计算深度d
′s根据尺度对齐方法进行帧间尺度对齐,获得尺度一致机器人定位轨迹。
13.进一步地,步骤s1中,可见光相机采用棋盘格标定法进行内参标定。
14.进一步地,所述无监督深度估计网络采用了编码器-解码器形式,所述编码器包括一个步长为2的7
×
7卷积层、一个步长为2的3
×
3池化层,四个密集模块,以及每个密集模块对应的过度层,每个过度层包括一个1
×
1卷积层和一个3
×
3卷积层。
15.进一步地,无监督深度估计网络中,密集模块包括四个处理单元,每个处理单元包括依次设置的批量化归一层、relu激活函数层、1
×
1卷积层和3
×
3卷积层,每个处理单元通过跳跃连接将该处理单元输出的特征级联至密集模块的最后。
16.进一步地,所述无监督深度估计网络中引入了网络特征度量损失函数,利用网络特征度量损失函数的反向传播训练网络,所述网络特征度量损失函数包括合成损失、深度损失和收敛损失。
17.进一步地,所述合成损失lf的表达式为:
[0018][0019]
式中:φ(p)为图像的特征表示,s下标表示源帧,t下标表示合成帧。
[0020]
进一步地,所述深度损失ld的表达式为:
[0021][0022]
式中:φ(p)为图像的特征表示,表示一阶微分算子,p表示图像像素,e表示指数底数,i(p)位图像的像素表示。
[0023]
进一步地,所述收敛损失lc的表达式为:
[0024][0025]
式中:φ(p)为图像的特征表示,表示二阶微分算子,p表示图像像素。
[0026]
进一步地,步骤s5中,采用n-best选取策略筛选优质匹配特征点对。
[0027]
进一步地,步骤s7中,设定尺度对齐因子s
t
进行帧间匹配尺度对齐,其表达式为:
[0028][0029]
式中:n表示特征点数量,表示第t帧第i处像素的预测深度,表示第t帧第i处像素的计算深度,m表示图像帧的数量。
[0030]
与现有技术相比,本发明具有以下有益效果:
[0031]
1、本发明的视觉里程计基于无监督深度估计网络与多视几何算法,并且在无监督深度估计网络中应用了轻量化的密集模块,可以更好地预测图像深度,具有准确率高、泛化性强以及网络模型参数量少的优点,针对大场景下图像深度估计具有更好的鲁棒性,适用于电厂复杂环境下的巡检机器人定位。
[0032]
2、本发明针对单目视觉里程计固有的尺度漂移问题,设计了尺度对齐原则。该原则可以有效地从第一帧图像开始对齐图像流帧间尺度,从而维持机器人巡检轨迹的尺度一致性,避免因尺度问题导致机器人无法准确定位。
[0033]
3、本发明特征度量损失应用于无监督深度估计网络的训练中,针对网络模型对场景细节纹理不足、光照不稳定等区域的图像深度学习能力具有极大的提高;本发明针对单度损失无法创建有效监督信号训练网络的缺陷进行改进,提高了网络训练的质量,并将网络融入视觉里程计方法中,提高了方法的准确性。
附图说明
[0034]
图1为本发明的整体框架图。
[0035]
图2是本发明构建的深度估计网络模型示意图。
[0036]
图3为本发明改进的密集模块的结构示意图。
[0037]
图4a是本发明针对的单目视觉里程计固有的尺度丢失问题。
[0038]
图4b是本发明解决尺度问题后单目视觉里程计定位轨迹。
具体实施方式
[0039]
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
[0040]
如图1所示,本实施例提供了一种巡检机器人视觉里程计方法,对智能巡检机器人利用单目可见光相机获取的图像序列进行实时地定位,具体包括以下步骤:
[0041]
步骤一:对机器人安装的可见光相机进行标定,利用棋盘格标定法,获取相机内参。
[0042]
步骤二:机器人运行过程中通过可见光相机获取的视频按固定时间截取图像,并将截取的图像存入服务器中,无监督深度估计网络模型部署在服务器端;
[0043]
步骤三:在服务器内选取截取图像中的相邻两帧将大小调整至大小调整为640
×
480,并将前一帧图像标记为源帧is,后一帧图像标记为目标帧i
t
。源帧输入至无监督深度估计网络,获取预测深度ds。
[0044]
步骤四:利用光流网络对源帧is和目标帧i
t
预测前向光流和后向光流,根据前后光流一致性原则筛选得到优质匹配特征点对;光流网络采用liteflownet网络模型。
[0045]
步骤五:根据优质匹配特征点对通过三角测量获得计算深度d
′s。
[0046]
步骤六:将预测深度ds和计算深度d
′s根据尺度对齐方法进行帧间尺度对齐,获得尺度一致机器人定位轨迹。
[0047]
步骤七:将尺度一致定位轨迹发送至机器人本体,使得机器人获取自身定位信息。
[0048]
本实施例中无监督深度估计网络采用densenet,并且对其进行密集模块的轻量化改进,在密集模块中通过跳跃连接将每一个处理单元的输出特征级联至密集模块的最后,具体如下:
[0049]
如图2所示,无监督深度估计网络的基本结构采用了编码器-解码器形式。编码器由一个步长为2的7
×
7卷积层、一个步长为2的3
×
3池化层,以及四个密集模块及其各自相邻的三个过渡层(tansition layer)组成。过渡层包含了一个1
×
1卷积层和一个3
×
3卷积层,目的是为了保证级联至后层的特征图尺寸一致。解码器依次包含一个1
×
1的卷积层、一个2
×
2的双线性上采样层和四个上采样模块。在上采样模块中,包含了两组3
×
3卷积层和一个2
×
2双线性上采样层。在编码器与解码器之间添加了跳跃连接,保证特征传递的流通。
[0050]
如图3所示,本实施例中对每个密集模块(dense block)进行了轻量化的改进,结合实际场景需求,简化密集模块连接方式,减小网络计算资源消耗的同时,确保网络对场景细节编码能力。密集模块包括四个处理单元,每个处理单元包括依次设置的批量化归一层(bn)、relu激活函数层、1
×
1卷积层和3
×
3卷积层。在每个密集模块中,不再需要将当前处理单元的输出特征级联至往后的每一个处理单元,只需通过跳跃连接将该处理单元输出的特征级联至最后,即只有最后一个处理单元采取了densenet相同的操作。
[0051]
x0~x3表示每一个处理单元的特征;密集模块的参数k,即增长率,表示每一处理单元级联至最后的特征图的数量;d0~d3为非线性变换函数,定义如下:
[0052]
x
l
=d
l-1
(x0,x1,...,x
l-1
),l=1,2,3
[0053]
式中,l表示每个处理单元的序号。
[0054]
因此,在密集模块中,每一个处理单元的输出经过非线性优化函数d
l
作用后都产生k个特征图,因此,一个密集模块的输出就有k0+(l-1)k个特征图作为下一模块的输入,其中k0是模块输入层l0的特征通道数。在视觉里程计场景下,轻量化的密集模块已足够保留场景的特征信息,能够降低特征冗余,减小模型参数,相较于传统的模型,保证了网络的灵活性和特征的持续性。
[0055]
本实施例在无监督深度估计网络的训练过程中,提出了网络特征度量损失函数,利用其反向传播训练网络,提高网络对场景细节的学习能力和深度恢复能力。网络特征度量损失函数由合成损失、深度损失和收敛损失组成,具体展开图下:
[0056]
(1)合成损失
[0057]
根据视图合成理论,设ps为源帧中某一像素的齐次坐标,为合成帧中对应像素的齐次坐标,那么根据相机位姿和深度值可得:
[0058][0059]
式中:k表示相机的内参矩阵;ds表述源帧中网络输出的像素深度;表示源帧至目标帧的位姿矩阵。
[0060]
由上式,通过源帧的特征图可得合成特征图因此,特征图合成损失函数的表达式为:
[0061][0062]
式中:φ(p)表示图像的特征表示,s下标表示源帧,t下标表示合成帧。
[0063]
(2)深度损失
[0064]
为了保证网络在场景的弱纹理区域依然能学习到梯度变化较大的特征,引入了深度损失函数:
[0065][0066]
式中:表示一阶微分算子,p表示图像像素,e表示指数底数,i(p)位图像的像素表示。
[0067]
(3)收敛损失
[0068]
为了平滑特征梯度,引入对二阶梯度的惩罚项,即收敛损失:
[0069][0070]
式中:表示二阶微分算子。
[0071]
综上,特征度量损失l
fm
的表达式如下:
[0072]
l
fm
=λflf+λdld+λclc[0073]
式中:λf为合成损失权重;λd为深度损失权重;λc为收敛损失权重。对应于不同的损失,根据在实际应用中不同的需求设立不同的权重。
[0074]
网络训练中,深度估计网络训练采用adam优化器。1阶矩估计指数衰减率设置为β1=0.9;2阶矩估计指数衰减率设置为β2=0.999;学习率设置为α=1e-4(e表示指数,表示将
前面的数字乘10的负4次幂);批规模(batch size)设置为4;密集模块增长率k设置为12。合成损失权重λf设置为1;深度损失权重λd设置为1e-3;收敛损失权重λc设置为1e-3;光度损失权重λ
ph
设置为5;深度一致性损失权重λ
dc
设置为1。
[0075]
综上,本实施例的无监督深度估计网络从

网络训练损失函数;

更深的网络层数;

更少的网络训练参数三个方面进行改进,提高深度估计网络算法的准确度。
[0076]
改进密集模块是在densenet基础上,通过改进层与层之间特征传递的方式,使浅层特征以最大程度保留,对图像细节有更好的估计效果,同时使用过渡模块、上采样模块和跳跃连接结构提升了网络特征传递能力。
[0077]
深度估计网络在基本结构上采用了编码器-解码器形式,通过复用浅层特征,提升网络对场景细节信息的编码能力,使得深度估计网络获取更精细的图像特征表达。在编码器部分,结合了改进密集模块结构,在网络训练参数与特征复用之间达到了最优平衡。
[0078]
本实施例中,步骤四的具体展开如下:
[0079]
首先,采用前后光流一致性准则,筛选优质的光流匹配。一致性越高,匹配精度越高。对于相邻图像对(is,i
t
),设前向光流为后向光流为光流一致性计算为:
[0080][0081][0082]
式中:pf为前后向光流中像素对应关系;ω为光流中像素执行变换操作的参数;p为图像中像素点。
[0083]
然后,根据上述计算式,通过常规的n-best选取策略,筛选出表现最好的n对2d-2d匹配点i和j表示像素上标索引。
[0084]
本实施例中,步骤六的具体展开如下:
[0085]
首先,利用非线性优化的方式求解pnp,计算相机初始位姿在李群se(3)上的表示t

,主要计算公式如下:
[0086]
考虑某个经光流前后一致性筛选出的空间点,它的齐次坐标为pi=(xi,yi,zi)
t
。它在源帧中的归一化平面齐次投影点坐标为ui=(ui,vi)
t
。由单目相机的理论模型可知,二者的关系如式:
[0087]
siui=ktpi[0088]
式中,si为该3d点的深度,k为单目相机内参矩阵。
[0089]
由于相机观测和实际计算存在一定误差,将该3d点由初始位姿变换t

重投影,重投影处的像素位置与目标帧i
t
中的观测位置存在误差,即重投影误差。基于此构建非线性优化问题,如下式
[0090][0091]
式中,n表示投影点数量,t

表示位姿变换矩阵,u表示第i个空间点在像素平面的投影,si表示第i个空间点的深度,i表示第i个空间点,pi表示第i个空间点的齐次坐标。
[0092]
使用李代数构建无约束优化,通过ba(bundle adjustment)进行求解,获得初始位姿t


[0093]
然后,利用尺度对齐原则将计算深度与网络预测深度进行对齐,固定全局定位轨
迹尺度,获得尺度一致机器人定位轨迹,展开如下:
[0094]
第0帧图像在第i处的预测深度为通过三角测量获得的对应的计算深度为那么,令
[0095][0096]
作为初始尺度对齐因子。其中,n表示特征点数量。随后,对每一帧执行相同的操作,即
[0097][0098]
其中,n表示特征点数量,表示第t帧第i处像素的预测深度,表示第t帧第i处像素的计算深度,m表示图像帧的数量。
[0099]
若相邻图像序列is和i
t
间的尺度对齐因子保持一致,即认为ss≈s
t
,那么随着帧间匹配尺度对齐的约束传递,位姿的全局尺度得到固定。最终输出全局一致的轨迹t=[r,t]。
[0100]
尺度未对齐的轨迹与尺度对齐的轨迹对比如图4a和图4b所示。
[0101]
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思作出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1