一种RGB-D图像显著性检测方法

文档序号:26569638发布日期:2021-09-08 02:11阅读:220来源:国知局
一种RGB-D图像显著性检测方法
一种rgb

d图像显著性检测方法
技术领域:
1.本发明涉及计算机视觉领域,尤其涉及一种rgb

d图像显著性检测方法。


背景技术:

2.显著性目标检测技术的关键是提取目标场景中最吸引人的重要区域,近年来,许多人在计算机视觉领域探索了显著性目标检测技术,将该项技术应用于语义分割,目标识别,图像压缩和图像分割等领域。在过去几年里,已经提出了各种基于rgb

d图像的显著性目标检测模型,这些模型都取得了良好的性能。
3.rgb

d图像中rgb图像与深度图像是成对出现的,rgb图像提供详细的颜色纹理信息,深度图像则提供目标区域的形状,位置等众多空间信息。过去的方法中,深度图像常作为第四通道输入,与处理rgb图像的一样的方式对深度图像进行特征提取操作,忽视了深度图在复杂场景中有效区分目标与背景的作用。在最近的几个先进算法中,已经开始逐渐重视深度图所携带的空间信息。fan等人将深度图像视为彩色图像的特殊情况,并使用共享的cnn进行rgb和深度特征提取;chen等人使用面向显著性的深度感知模块来评估深度图的潜力并减少污染的影响。
4.当从rgb图像和深度图像中捕获到高质量的多尺度特征时,如何将其有效融合以获得高水平的显著图也是当前探索显著性检测技术的热点问题。zhao等人提出了一种流体金字塔积分模块来以分层的方式有效地融合跨模态信息;chen等人引入了通道式注意机制实现选择性的跨模态跨层次特征融合。
5.发明人在实现本发明的过程中,发现现有技术至少存在以下缺点和不足:(1)由于采集设备的限制,数据集中会出现边缘模糊或遭受噪声干扰的低质量深度图像,低质量深度图像的引入降低了检测性能;(2) 将含有噪声的特征向下传递,无法充分获取并融合有用特征,有用特征被丢失浪费,从而影响了结果质量。


技术实现要素:

6.针对以上问题,本发明提供了一种rgb

d图像显著性检测方法,旨在减少低质量深度图的影响,有效获取深度图像的特征,并尽可能全面充分融合各级有用特征,获得更好的检测性能。
7.本发明具体采用的技术方案如下:
8.一种rgb

d图像显著性检测方法,包括如下步骤:
9.步骤1、将rgb图像和深度图像分别输入到舍去全连接层和池化层的resnet50主干网络中,提取每层的rgb特征和深度特征;
10.步骤2、将各层的深度特征输入到每个层级相应的深度改进模块中,得到的深度改进特征与相应的rgb 特征进行融合,经过卷积、激活等操作后得到各层的混合特征;
11.步骤3、将混合特征从高层到底层两两组合,分别通过特征分组监督融合模块,得到各层显著图,其中,在每个特征分组监督融合模块中都加入上一层输出的显著图和真值
图进行监督,最终经过迭代优化以第4层级输出的显著图作为最终结果显著图。
12.在上述方案的步骤2中深度特征送入到每个层级相应的深度改进模块中得到深度改进特征的具体步骤如下:
13.1)深度改进模块包括通道注意力模块和空间注意力模块,首先将深度特征输入通道注意力模块中进行改进操作,过程定义如下:
[0014][0015]
其中,ch(
·
)表示通道注意力操作;f
i
表示输入的多尺度的深度特征;表示元素依次相乘操作;per(
·
) 为两层感知机;pool
ave
(
·
)表示对深度特征进行平均池化操作;
[0016]
2)将上述操作输出的特征送入空间注意力模块再次进行改进操作,过程定义如下:
[0017][0018]
其中,sp(
·
)表示空间注意力的操作,conv(
·
)表示卷积操作;pool

max
(
·
)表示为对卷积特征通道的每一点的最大池化操作。
[0019]
在上述方案的步骤2中深度改进特征与对应的rgb特征进行融合得到混合特征的具体步骤如下:
[0020]
深度改进特征和rgb特征先串联,然后进行卷积操作将特征通道数缩小,从而形成混合特征,过程定义公式形式为:
[0021]
f
m
=re(conv(f

dm

f
rm
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0022]
其中,f

dm
表示深度改进特征;f
rm
表示rgb特征;f
m
表示混合特征;re(
·
)表示激活函数relu,对数值作归一化处理;conv(
·
)表示卷积操作;

表示串联操作。
[0023]
在上述方案的步骤3中混合特征通过特征分组监督融合模块得到显著图的具体步骤如下:
[0024]
1)在特征分组监督融合模块中,从高层级到低层级相邻的每两个混合特征组合在一起,共分成了四组,每组特征中高层的特征进行上采样操作后与同组低层特征串联起来,随后进行卷积操作,得到多尺度特征f
qi
,过程定义如下:
[0025]
f
qi
=re(conv(up(f
m
)

f
m
‑1))
ꢀꢀꢀꢀꢀꢀꢀ
(4)
[0026]
其中,up(
·
)表示上采样操作;re(
·
)表示激活函数relu;conv(
·
)表示卷积操作;
[0027]
2)用高层输出的显著图和真值图迭代优化上层结果,得到多模态融合特征f

qi
(特别地,最高层级组的特征融合过程中没有上一层显著图的监督),过程定义如下:
[0028]
f

qi
=f
qi
+re(conv(s))+re(conv(s
i
‑1))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(5)
[0029]
其中,s
i
‑1表示高层输出的显著图;s表示真值图,re(
·
)表示激活函数relu;conv(
·
)表示卷积操作;

表示串联操作;
[0030]
3)在特征分组监督融合模块中引入特征增强模块对多模态融合特征f

qi
进行提纯,特征增强模块包含四个平行分支和一个残差连接分支。特征提纯过程为:首先,将特征的四个分支进行卷积核1
×
1的卷积操作,将通道数缩小,然后对后三个分支分别进行卷积核为3
×
3,5
×
5和7
×
7,膨胀率为1的卷积处理,接着进行卷积核为3,膨胀率为3、5、7的处理,接下来,四个分支串联起来进行1
×
1的卷积操作,在输入特征与卷积后的输出操作之间
进行一个残差连接,最终形成特征f

qi

[0031]
4)用卷积和激活函数对多模态多尺度特征f

qi
进行处理,输出对应的显著图s
i
,并以第4层级的显著图作为最终预测结果图,过程定义如下:
[0032]
s
i
=re(conv(f

qi
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6)
[0033]
其中,re(
·
)表示激活函数relu;conv(
·
)表示卷积操作。
[0034]
在上述方案的步骤3中的特征融合过程中,使用二元交叉熵损失函数优化网络参数,公式表示为:
[0035]
loss=

[slog(s
i
)+(1

s)log(1

s
i
)]
ꢀꢀꢀꢀꢀꢀ
(7)
[0036]
其中,s
i
为每组输出的显著图;s为真值图;loss为损失函数。
[0037]
本发明的有益效果:本发明设计了一种rgb

d图像显著性检测方法,其中,基于注意力机制引入深度改进模块对深度图像特征进行优化,有效抑制了噪声的干扰;基于卷积神经网络引入特征分组监督融合模块对rgb特征和深度特征进行了高质量的充分融合,生成了完整、边缘清晰、准确的显著图。本发明设计的方法检测性能好,具有良好的鲁棒性;并且不依赖主干网络,具有良好的扩展性。
附图说明:
[0038]
图1为本发明的网络结构示意图;
[0039]
图2为本发明的深度改进模块的结构图;
[0040]
图3为本发明的特征分组监督融合模块的结构图;
[0041]
图4为本发明实施例中的检测效果图。
具体实施方式:
[0042]
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图和实施例作进一步详细说明。应当理解,此处所描述的具体实施例仅用于解释本发明,并不用于限定本发明。
[0043]
参考附图1,一种rgb

d图像显著性检测方法的具体实现步骤如下:
[0044]
1.技术路线
[0045]
本发明采用resnet50作为主干网络,在舍去全连接层和池化层的基础上,对结果进行多分支监督融合操作。首先将rgb图像和深度图像分别输入网络中,在特征提取阶段,获得各层来自深度图像的多尺度特,随后这些特征经过深度改进模块,减少了冗余的特征和噪声,与来自rgb图像的多尺度特征分别进行融合,融合后的混合特征,两两进行组合从高层到低层逐步通过特征分层监督融合模块,生成显著图s
i
,并第4层级输出的显著图s4作为最终结果显著图。
[0046]
融合过程中,本发明使用二元交叉熵损失函数优化网络参数,具体公式为:
[0047]
loss=

[slog(s
i
)+(1

s)log(1

s
i
)]
ꢀꢀꢀꢀꢀꢀ
(1)
[0048]
其中,s
i
为每组输出的显著图;s为真值图;loss为损失函数。
[0049]
2.深度改进模块
[0050]
携带丰富空间信息的深度图像能够对检测复杂场景下的目标对象提供有力的线索,如何从深度图中提取到有用的信息间接的影响显著性检测的性能。如附图2所示,本发
明提出深度改进模块旨在克服低质量深度图存在的噪声与冗余问题,从中捕获有效信息。
[0051]
视觉注意力机制应用于计算机视觉的任务中,核心思想是基于原有的数据找到其之间的关联性,然后突出其某些重要特征。本发明在深度改进模块引入了视觉注意力机制中的通道注意力以及空间注意力以从深度特征中获取高质量的信息。
[0052]
深度改进模块位于每层卷积操作的后面,来自深度图的多尺度特征经过深度改进模块处理变为深度改进特征,此操作定义公式形式为:
[0053]
f

dm
=t
dcm
(f
dm
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(2)
[0054]
其中:f
dm
,f

dm
分别为深度图改进前和改进后的各层的特征;t
dcm
(
·
)为改进操作。具体深度改进操作过程定义公式形式为:
[0055]
t
dcm
(f
dm
)=sp(ch(f
dm
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0056][0057][0058]
其中,式(4)的ch(
·
)和式(5)的sp(
·
)分别为通道注意力和空间注意力的操作;f
i
表示输入的多尺度特征;为元素依次相乘操作;式(4)中per(
·
)为两层感知机,pool
ave
(
·
)表示为对每层多尺度特征进行平均池化操作;式(5)中conv(
·
)为卷积操作,pool

max
(
·
)表示为对卷积特征通道的每一点的最大池化操作。
[0059]
本发明与其他方法不同,其他方法在特征处理上更多使用最大池化操作,而本发明引入的深度改进模块在通道注意力和空间注意力机制中分别用了平均池化和最大池化操作,平均池化操作更好地保留了背景信息,最大池化操作提取了特征纹理,减少了无用信息,本发明将两者相结合,使最终预测显著图的效果达到了最优。
[0060]
3.特征分组监督融合模块
[0061]
具有判别力的高层特征,如果简单用一个卷积操作生成本层结果,可能会将含有噪声的特征向下传递,影响结果质量,本发明引入了多模态多尺度特征分组监督融合模块解决了此问题。多模态多尺度特征分组监督融合模块如附图3所示。
[0062]
在特征进入特征分组监督融合模块之前本发明先对来自rgb图像的不同等级的特征f
rm
和经过深度改进模块更新处理的深度图像的特征f

dm
,进行串联和卷积操作将特征通道数缩小,形成混合特征f
m
,此过程定义公式形式为:
[0063]
f
m
=re(conv(f

dm

f
rm
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6)
[0064]
其中,re(
·
)为激活函数relu,对数值作归一化处理,使提取出来特征更具有代表性;conv(
·
)为卷积操作;

为串联操作。
[0065]
接着将混合特征f
m
,输入特征分组监督融合模块中融合,其中,不同层次的多模态多尺度特征两两进行组合被分为了四组:q1={f4,f5},q2={f3,f4},q3={f2,f3},q4={f2,f1}。为使得特征充分被捕获,防止杂乱信息持续传递,本发明选择将每组混合特征两两组合先串联后卷积,从而依次得到了不同等级的多尺度特征f
q1
~f
q4
,此过程定义公式形式为:
[0066]
f
qi
=re(conv(up(f
m
)

f
m
‑1))
ꢀꢀꢀꢀꢀꢀꢀ
(7)
[0067]
其中,up(
·
)为上采样操作,即对每组高层特征进行上采样操作使之变得和下层特征大小相同。
[0068]
为了使得结果最优化,本发明用高层输出的显著图s
i
‑1和真值图s去迭代优化上层结果,更新目标位置,清晰目标边缘,得到多模态融合特征f

qi
,公式定义为:
[0069]
f

qi
=re(conv(up(f
m
)

f
m
‑1))+re(conv(s))+re(conv(s
i
‑1))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(8)
[0070]
其中,s
i
‑1表示高层输出的显著图;s表示真值图,re(
·
)表示激活函数relu;conv(
·
)表示卷积操作;

表示串联操作;up(
·
)表示上采样操作。
[0071]
为进一步增强多模态特征的表示能力,在特征分组监督融合模块里引入特征增强模块对多模态融合特征f

qi
进行提纯。它包含四个平行分支和一个残差连接分支,具体而言,首先,本发明将特征f

qi
的所有分支进行卷积核1
×
1的卷积操作,将通道数缩小,然后对后三个分支分别进行卷积核为3
×
3,5
×
5和7
×
7,膨胀率为1的卷积处理;接着又进行了卷积核为3,膨胀率为3、5、7的操作,目的是高效提取有用的信息。为使得每层特征尽可能分布稳定,本发明在卷积后引入bn

relu层(batch normalization+relu),通过bn层的归一化操作,让relu更好地产生特征选择作用,加快网络收敛速度。接下来,四个分支串联起来进行1
×
1的卷积操作,在输入特征与卷积后的输出操作之间进行一个残差连接(residual)目的是避免经多层训练效果不如前面的层,提升网络的表征能力,最终形成特征f

qi

[0072]
最后,对应多模态多尺度特征f

qi
的显著图输出s
i
的过程表示为:
[0073]
s
i
=re(conv(f

qi
))
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(9)
[0074]
特别地,最高层q1组的融合没有上一层显著图的监督。经过上述监督迭代优化等操作,最终,得到结果预测显著图s4。
[0075]
下面将上述方法应用到具体实施例中,以便本领域技术人员更好地理解本发明的效果。
[0076]
本实施例的实现方法如前所述,不再详细阐述具体步骤,下面仅针对案例数据展示其效果。本发明选用nju2000数据集前1400张,nlpr数据集前600张,ssd数据集前60张,lfsd数据集前60张图像进行训练,各数据集剩下的数据图像用于测试。
[0077]
本实施例检测结果参考下表所示,其中,平均绝对误差(mae)越小,f

measure,e

measure,s

measure 值越大表明检测性能越好,从表中结果可以看出本发明方法的检测整体结果优于其他方法,具有一定竞争力。
[0078][0079]
上述与本发明方法对比的其他方法,具体实现过程参见以下现有技术文献:
[0080]
cpfp:zhao j,cao y,fan d,et al.contrast prior and fluid pyramid integration for rgbd salient object detection.2019ieee/cvf conference on computer vision and pattern recognition (cvpr).long beach,ca,usa,2019.
[0081]
ctmf:han j,chen h,liu n,et al.cnns

based rgb

d saliency detection via cross

view transfer and multiview fusion.ieee transactions on cybernetics,2018.
[0082]
tan:chen h,li y.three

stream attention

aware network for rgb

d salient object detection. ieee transactions on image processing,2019.
[0083]
bbsnet:fan d p,zhai y j,borji a,et al.shao,l.bbs

net:rgb

d salient object detection with a bifurcated backbone strategy network.computer vision

eccv,2020.
[0084]
附图4给出了实施例的可视化结果。第一列为rgb图像,第二列为深度图像,第三列为真值图,第四列到第七列为与本方明方法对比的其他方法的检测图,第八列为本发明方法生成的显著性图。附图4(a) 是普通背景下单目标的显著性检测图,从图片看出,本发明方法识别出的物体,边缘更清晰;附图4(b) 是对受光线干扰的图像的检测,光线反射易造成图像原本颜色或形状的改变,由结果可以看出,本发明方法能够有效克服光线带来的影响,更好地识别出目标物体;附图4(c)是在复杂场景下对多物体的检测,本发明方法能够清晰地检测出所有物体;附图4(d)是在低对比度的场景中识别出目标物体,本发明方法充分利用深度图像的有用特征,有效抑制了背景与目标对比不明显的干扰,取得了良好的可靠结果。
[0085]
以上所述仅为本发明的较佳实施例而已,并非用以限制本发明,有关技术领域的人员在不脱离本发明的实质和范围的情况下,可以做出修改、等同替换和改进等,均包含在本发明的保护范围之内。
[0086]
本说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1