一种基于全空间编码注意力模块的SAR图像目标检测方法

文档序号:31733272发布日期:2022-10-05 02:38阅读:139来源:国知局
一种基于全空间编码注意力模块的SAR图像目标检测方法
一种基于全空间编码注意力模块的sar图像目标检测方法
技术领域
1.本发明涉及一种基于全空间编码注意力模块的sar图像目标检测方法,属于航空航天与计算机视觉信息处理交叉领域。


背景技术:

2.合成孔径雷达sar(synthetic aperture radar)是一种使用主动微波的探测手法,其成像具有全天时、全天候、分辨率高的特点。由于其不受光照和气象条件的限制,被大量运用在军事探测、海洋资源监测、地理环境探测等领域中,目前已经成为了人们对地观测的重要手段,但是如何自动化地对sar图像进行目标识别和检测仍然是一个重点。因为与普通光学成像相比,相干斑噪声使得sar成像得到的结果看起来比较杂乱,噪声较多,使得目标物体的特征不那么明显,难以用肉眼判别目标类型。好在随着卫星技术的成熟和发展,有了越来越多的海面和陆地sar目标检测数据集,能够为深度学习提供数据支持。
3.sar图像目标检测之前以传统算法为主,传统的算法往往基于先验知识,所以其应用场景较窄。传统算法首先要手工对图像进行特征提取,并用数学模型表示此特征。常用的sar图像的传统检测方法有恒定虚警概率下的检测器(cfar)和手工特征提取,前者需要构建复杂的统计模型,计算量较大,后者只能应用于特定的场景,其泛化性较差,比较成功的应用有利用油罐圆形的形状特征,使用霍夫变换的圆检测实现对油罐目标的检测。
4.随着深度学习的不断突破和计算硬件的迭代进步,深度学习算法在sar图像上的目标检测也逐步的得到了应用。深度学习算法在sar图像目标检测时无需进行场景区分,能够自适应不同的场景,同时还能够做到高精度和低延时性。cnn网络在特征提取方面具有非常大的优势,不再依赖于手工特征提取,可以通过自主“学习”,自动提取出目标所具有的特征,具有非常好的泛化性。基于双阶段的faster rcnn检测网络在ssdd舰船数据集上可以达到79%的精度;基于单阶段的yolo系列目标检测网络在sar图像目标检测具有更快的速度;基于无锚框设计的fcos网络在目标检测的定位精度上更进一步。
5.传统算法利用手工提取得到的特征只能检测具有简单形状的物体,并且精度不高,对于一般的深度学习算法而言,sar图像的成像由于受到相干斑噪声的影响,得到的图像噪声较多,对目标的影响较大,所以得到的检测效果一般。最近兴起的注意力机制可以使得神经网络在提取特征的时候有所侧重,减小相干斑噪声的影响,将网络的注意力放在目标物体上,更加有针对性的进行特征提取,以此提高网络的性能。因此本发明结合神经网络的特点和sar图像的特点,根据sar图像的特点对神经网络的结构进行修改,从而提出一种用于sar图像的基于注意力机制的单阶段无锚框卷积神经网络目标检测方法。


技术实现要素:

6.本发明技术解决的问题:克服sar图像成像质量和噪声的影响,提供一种基于全空间编码注意力模块的sar图像目标检测方法,对陆地sar图像中的目标,具有检测准确度高,抗干扰能力强的优点。
7.一般的非局部注意模块的不但计算量大,而且对于噪声滤除效果一般,难以使用到噪声较多的sar图像的检测中。而局部注意力模块则存在信息丢失的问题,如se注意力机制将二维的特征图信息压缩到一个一维空间上,丢失了特征图中绝大多数的位置相关的信息。
8.本发明的全空间编码注意力模块(entire spatial encoding attention block,简称为eseab),将可变形卷积引入到sar图像的目标检测网络中,并且将全空间位置信息嵌入到通道注意中。与一般通道注意力通过简单的全局池化将特征转化为单个特征向量不同,eseab中的注意力模块将多维空间特征信息分解为多个的一维特征进行编码,当处理二维图像信息时,该模块分别沿两个空间方向聚合特征。通过这种方式,可以在一个空间方向上捕获长期依赖关系,同时在另一个空间方向上保留精确的位置信息,实现全空间特征编码。然后将生成的特征图分别编码成一对方向感知和位置敏感的注意图,这些注意图可以互补地应用于输入特征图,以增强对感兴趣对象的表示。
9.为了解决上述技术问题,本发明是通过以下技术方案实现的:一种基于全空间编码注意力模块的sar图像目标检测方法,包括如下步骤:
10.步骤1:预处理sar图像的目标检测数据集,得到目标检测数据集的标注信息,并将目标检测数据集划分训练集和测试集;
11.步骤2,将全空间编码注意力模块作为整体嵌入到深度目标检测神经网络的骨干网络中以进行特征提取,得到加入全空间编码注意力模块的深度目标检测神经网络,在不同的空间方向上对特征通道进行权重编码,增强骨干网络对要检测图片的特征提取能力,并使用金字塔结构对加入全空间编码注意力模块的深度目标检测神经网络提取到的特征图进行多尺度特征融合,得到融合后的多尺度特征图,提高检测网络的检测精度;
12.步骤3,在训练阶段将融合后的多尺度特征图分别送入两个检测分支进行回归和分类任务的预测,两个不同任务的检测分支,使得分类和回归任务进行直接预测和分别解耦,以能够提高深度目标检测神经网络的检测效果和训练效率;第一个检测分支在多尺度特征图的每个像素位置上进行目标类别的预测,得到该像素位置目标所属类别;第二个检测分支在多尺度特征图的每个像素位置上进行置信度和候选框位置参数的预测,得到该像素位置目标所属类别的置信度和该像素位置目标的候选框位置参数;最终预测得到输入网络的训练集图片中包含的目标的类别以及所在的位置;
13.步骤4,将预测得到的训练集中目标的类别与位置与训练集的标注信息一起输入损失函数,计算得到每一个损失项的当前损失值,结合历史的损失值,基于方差和均值进行动态调整该损失项的权重,综合加权得到最终的损失值;
14.步骤5,将得到的最终损失值进行反向传递,更新加入全空间编码注意力模块的深度目标检测神经网络的网络参数,根据设置的最大迭代次数、学习率和反向传播算法,经过反复训练,直至带有全空间编码注意力模块的深度目标检测神经网络的参数收敛,得到最终训练完成的检测模型;
15.步骤6,在sar图像测试数据集对训练得到的检测模型进行测试,输出保存可视化之后测试结果,以及加入注意力模块前后的平均精度平均值map检测指标。
16.进一步,所述步骤2中,全空间编码注意力模块由一个可变形卷积层、两个卷积层、一个池化层、两个激活层、一个特征拼接层和一个特征分离层堆叠而成;所可变形卷积层的
卷积核大小为3
×
3,卷积层的卷积核大小为3
×
3和1
×
1,池化层分别在特征的高和宽方向上进行平均池化,激活层的激活函数为relu和sigmoid,拼接层将池化层得到的特征进行拼接,然后送入卷积层,分离层将卷积层得到的特征进行分离,分离后的特征再送入第二个卷积层,输出特征维度大小与输入特征大小相等,作为权重与输入特征进行点乘操作,增加有用信息的权重,得到最终的输出特征;所述的全空间编码注意力模块能够在不同的方向上对特征图进行编码,实现通道信息的优选,能够最大程度的利用相关信息。
17.进一步,所述骨干网由多个卷积层、多个归一化层和多个激活层堆叠而成;所述卷积层的卷积核大小为3
×
3、5
×
5、7
×
7,批归一化层为bn或gn,激活层的激活函数为relu或silu;使用全空间编码注意力模块替换部分卷积层,该深度卷积网络应包含n个阶段,且n不小于4,其输入为一张图片,输出为该图片对应的n个特征图。
18.进一步,所述步骤3中,第一分支为分类分支,包含三个卷积层,用于预测检测框的置信度,其输出的张量维度为检测目标的类别数;第二分支为回归分支,包含三个卷积层,用于预测检测框的相关参数。
19.进一步,所述步骤4中,损失函数loss
total
为:
20.loss
total
=α1·
loss
cls
+α2·
loss
obj
+α3·
loss
iou
21.其中loss
cls
表示分类损失,loss
obj
表示置信度损失,loss
iou
表示预测框位置损失,
22.α1、α2、α3为权重因子,并且满足α1+α2+α3=1,标准偏差其中ci为loss
total
中每一项损失的大小,为loss
total
中每一项损失值的方差,为loss
total
中每一项损失值的均值。
23.与现有技术相比,本发明的有益之处在于:这种基于全空间编码注意力模块的无锚框单阶段目标检测网络的结构设计科学、合理,引入了前沿的检测注意力机制、可变形卷积、多任务学习等。针对sar图像的背景混杂、噪声较多、目标不明显的问题,能够从sar图像中学习到更多的有用信息。针对sar图像中的目标物体检测效果好,其具有以下优点:
24.(1)本发明能够对通过注意力机制对目标物体的特征进行更加有效的提取,抑制背景在特征图中的强度,能够缓解sar图像的特性带来的噪声干扰;在网络结构中加入的注意力机制,即全空间编码注意力模块,从不同的方向上对特征图进行编码,实现通道信息的优选,增加包含信息丰富的通道的权重减小无用信息的干扰。
25.(2)本发明在eseab模块中使用可变形卷积替换普通卷积层,将可变形卷积应用到sar图像目标的检测中,可变形卷积相比于普通卷积在感受野中引入了可学习的偏移量,使得卷积区域能够始终覆盖在物体形状的周围,减小目标移动、尺寸缩放和旋转等对检测的影响,能够进一步提高检测效果。
26.(3)本发明在预测目标的位置、类别的时候采用直接预测和分开解耦的方式,相比于双阶段的检测网络,能够显著提高网络的检测速度,相比于使用同一个检测头同时解耦预测位置信息和类别信息的检测网络,本发明具有更快的收敛速度和更高的检测精度。
27.(4)本发明在将多项损失值进行组合、加权得到最终的总损失值的时候,采用了基于观测的动态权重调整的多任务学习策略,代替了传统的手工设定权重的方法。根据每一项损失的历史损失值的方差和均值,能够得出每一个损失项的训练稳定程度,根据稳定程
度调整该损失项在总损失项中的占比,进而达到更好的训练效果。
附图说明
28.图1为本发明的eseab注意力模块的结构图;
29.图2为本发明中网络整体框架图中的特征提取网络模块图;
30.图3为本发明中网络的训练和测试流程示意图;
31.图4为本发明中所使用的特征提取网络的结构图;
32.图5为加入eseab前后的深度目标检测神经网络在ssdd数据集上的远海、近海sar图像检测示意图,其中a、c、e代表未加入全空间编码注意力模块的深度目标检测神经网络的检测结果,其中b、d、f为加入全空间编码注意力模块的检测网络的检测结果;
33.图6为加入eseab前后的深度目标检测神经网络在陆上sar图像目标检测示意图,其中a是未加入eseab,b是加入eseab。
具体实施方式
34.下面结合附图及实施例对本发明进行详细说明。
35.全局池化通常用于通道注意对空间信息进行全局编码,但它将全局空间信息压缩到一个通道描述符中,难以保留位置信息,而位置信息是视觉任务中获取空间结构的关键。为了鼓励注意力模块利用精确的位置信息在空间上捕获远程交互,本发明提出的全空间编码注意力模块(eseab模块)的注意力部分对全局池化进行分解。eseab模块使用两个1维的平均池化捕捉水平和垂直方向的注意力特征。相比此前的轻量级网络上的注意力方法,eseab模块存在以下优势。首先,它不仅仅能捕获跨通道的信息,还能捕获方向感知和位置感知的信息,这能帮助模型更加精准地定位和识别感兴趣的目标;eseab注意力模块能够增加网络的抗干扰能力,降低噪声对于目标的干扰,可变形卷积可以增加对目标的检测精准度;其次,eseab模块灵活且轻量,可以被更加容易地插入到网络中。
36.在注意力机制中,经常使用全局池化对空间信息进行全局编码,将全局信息压缩到一个通道信息中,很难保留位置信息,对于检测任务而言位置信息至关重要。所以为了避免全局池化操作对二维位置信息的破坏,将全局池化分解为在水平和竖直方向上的一维编码操作。
37.全空间编码注意力模块在给定输入x=[x1,x2,

,xc]∈rc×h×w之后,首先经过一个可变形卷积,但是不改变输入特征的维度,卷积核大小为3
×
3大小,然后再送入注意力部分,注意力部分先使用池化核在两个空间范围(h,1)和(1,w)分别沿着水平方向和竖直方向对每个通道进行编码。第c个通道在(h,1)和(1,w)方向上的公式如下:
[0038][0039][0040]
其中是指在在水平方向上对第c个通道进行编码,是指在在竖直方向上对第c个通道进行编码。上述的两种变换分别沿着两个空间方向进行特征提取,生成一对方向感
知特征映射。对于生成的两个方向上的特征,将其进行拼接,然后再通过f1(1
×
1卷积)操作,得到f∈r
c/r
×
(h+w)
。即:
[0041]
f=δ(f1[zh,zw])
[0042]
其中[
·
,
·
]代表特征拼接操作,δ()代表非线性激活函数,r是通道的缩小率,可以减小整体的计算量。再将f进行分离成fh∈r
c/r
×h和fw∈r
c/r
×w,分别通过一个1
×
1卷积fh和fw将fh和fw变换为与输入x具有相同通道数的张量:
[0043]gh
=sigmod(fh(fh))
[0044]gw
=sigmod(fw(fw))
[0045]
假设输出张量为y=[y1,y2,

,yc]∈rc×h×w,将最后的输出展开为注意力权重的形式为:
[0046][0047]
其中yc(i,j)代表输出的第c个通道,位置为(i,j)的张量值,xc(i,j)代表输入的第c个通道,位置为(i,j)的张量值,为编码后的注意力。图1为eseab注意力模块的示意图,先将输入经过一个可变形卷积网络,再将得到的特征图在水平和竖直方向上进行池化操作,并进行拼接,再通过通道卷积,得到两个方向上的注意力权重,再与输入特征图进行点乘,得到输出的特征图。
[0048]
为实现上述目的,本发明采用的技术方案如图3所示,步骤如下:
[0049]
步骤1,预处理sar图像的目标检测数据集,为了测试sar深度目标检测神经网络对海上和陆上目标检测的效果,所述目标检测数据集包括使用sar原理成像的ssdd舰船检测数据集和hrs0.5陆上油罐检测数据集。对两者进行数据处理,训练集部分按照固定大小的批次进行图像增强变化,得到数据集的标注信息,并划分训练集和测试集。
[0050]
步骤2,将全空间编码注意力模块作为整体嵌入到深度目标检测神经网络的骨干网络中以进行特征提取,得到加入全空间编码注意力模块的深度神经网络,在不同的空间方向上对特征通道进行权重编码,增强骨干网络对要检测图片的特征提取能力,从深层次的小特征图进行上采样,与较浅层次的较大特征图进行拼接,再重复进行一次上采样和拼接过程,即对三种不同尺度大小的特征图进行融合,充分利用不同层次的特征图,得到融合后的多尺度特征图,提高检测网络的检测精度;
[0051]
所述全空间编码注意力模块的深度目标检测神经网络结构如图1所示:
[0052]
输入eseab结构的特征向量的维度为h
×w×
c,首先经过一个可变形卷积,卷积核大小为3x3,步长为1,得到经过可变形卷积后的特征图,特征图大小为h
×w×
c。接着在水平方向和竖直方向分别对经过可变形卷积后得到的特征图进行平均池化,得到经过水平方向平均池化后维度为h
×1×
c,和经过竖直方向平均池化后维度为1
×w×
c的特征向量,将二者进行拼接得到大小为1
×
(w+h)
×
c大小的向量,再经过一个点卷积,保持通道数不变,得到经过卷积变换后的大小为1
×
(w+h)
×
c的权重向量,再将权重向量进行拆分,分别得到维度大小为h
×1×
c和1
×w×
c的权重向量,然后再与经过可变形卷积后得到的特征图进行对应位置的点乘,最终得到维度大小为h
×w×
c的输出特征。
[0053]
所述带有eseab结构的深度目标检测神经网络的骨干网络结构如下:
[0054]
带有eseab结构的卷积瓶颈网络结构的参数有输入通道数m、输出通道数o、隐藏层
扩增倍率r以及激活函数f。卷积瓶颈网络前部分结构由主干部分和旁支部分组成:所述主干部分包含1个1x1卷积,2个3x3卷积,2个激活层。所述步长大于1时,则额外包含一个3x3分组卷积,为中间层卷积,中间层通道数为l=2m。第一个1x1卷积通道数为c1=m
×
r,步长为1;第1个3x3卷积的通道数为c2=c1=m
×
r,步长为1;第2个3x3卷积的通道数为c3=o,步长为1;旁支部分包含一个卷积核大小为1x1、卷积步长为s、输出特征图通道数为o、激活函数为relu函数的卷积层。前部分主干部分与旁支部分输出的张量按对应位置相加后输入瓶颈结构后半部分中,瓶颈结构后半部分由eseab注意力模块组成,eseab注意力模块输入、输入特征大小相同,输出通道数为r。
[0055]
提取特征的深度目标检测神经网络的骨干网络主要包括5个阶段,如图4所示:
[0056]
阶段1主要包括两个结构,首先第一个结构将输入的图片在不损失信息的情况下,将其从输入大小b
×c×w×
h的图片,调整图片像素的位置信息,使其实现无损降采样的过程,得到b
×
4c
×
w/2
×
h/2大小的张量;第二个结构主要为:将其送入卷积核大小为5
×
5的卷积层,步长为2,输出通道数为64,再进行批次归一化,最后通过silu激活函数输出,最终输出的通道数为64;
[0057]
阶段2包含一个带有eseab结构的卷积瓶颈网络结构,瓶颈结构的输入通道数为64,卷积步长为2,隐藏层扩增倍率为3,激活函数为silu,输出通道数为128。
[0058]
阶段3包含三个带有eseab结构的卷积瓶颈网络结构,瓶颈结构的输入通道数为128、128、256,卷积步长为2、1、1,隐藏层扩增倍率为3,激活函数为silu,输出通道数为256;
[0059]
阶段4的结构与阶段3类似,也包含三个带有eseab结构的卷积瓶颈网络结构,瓶颈结构的输入通道数为256、256、512,卷积步长为2、1、1,隐藏层扩增倍率为3,激活函数为silu,最后输出通道数为512;
[0060]
阶段5包括一个带有eseab结构的卷积瓶颈网络结构。在送入瓶颈结构之前分别对特征向量进行核为1
×
1、5
×
5、9
×
9、13
×
13大小的最大池化操作,并将得到的四者的结果进行拼接,得到一个通道数为2048的张量。再通过一个卷积核为1
×
1大小、步长为1的卷积,输出的通道为512。再将得到的张量送入到一个带有eseab结构的卷积瓶颈网络结构中,瓶颈结构的输入通道数为512,卷积步长为2,隐藏层扩增倍率为3,激活函数为silu,输出通道数为1024,得到最后的特征向量。
[0061]
步骤3,在得到融合后的图像特征图之后,经过两个解耦检测分支进行解耦,分别得到预测目标的种类以及预测目标框的位置信息和置信度。其中的目标框的位置信息和置信度是回归分支进行预测,预测目标的种类由分类分支进行预测。将分类任务和回归任务分离,如图2所示,图2中的右侧部分的检测分支分为上下两个检测分支,上方分支执行分类任务,对目标的种类进行预测,下方分支执行回归任务,对目标框的位置信息和置信度进行回归预测;
[0062]
步骤4,将得到的预测目标的种类、预测框的位置和置信度与标注文件中的真值代入损失函数进行计算,得到当前网络参数下的损失值;
[0063]
在训练的时候采用多任务损失函数,在解耦头使得分类任务和回归任务分离,分别进行预测以及loss计算,再将两者的loss求和得到总的损失,然后根据总的损失进行梯度反传,向着loss减小的方向更新网络参数。
[0064]
由于sar图像的噪声较多,所以为了避免正负样本的不平衡问题,在bce损失函数
中加入了focal loss的变体来进行训练,可以使得网络能够学到更多的有用信息。将bce损失函数改写为:
[0065][0066]
其中pi和是作为预测的值与作为groud truth的值,i代表最终输出的预测值中像素位置索引,n为目标的数量,α、β作为超参数选择α=2、β=3。
[0067]
分类解耦分支主要的任务是对当前位置的目标进行分类,预测出当前位置的目标属于已知目标的哪一类,采用的是bcewithlogits损失函数进行衡量,bcewithlogits损失函数由bce损失函数发展而来,相比于bce损失函数,bcewithlogits损失函数先进行了一次sigmoid函数将预测值变化到(0,1)之间。bcewithlogits可以由bce损失函数表示为:
[0068]
loss
bcewithlongits
=loss
bce
(sigmoid(pred),target)
[0069]
其中sigmoid代表sigmoid激活函数,pred代表网络输出该目标每一类的预测概率,target代表标注信息下的所属类别,即真值。
[0070]
在得到解耦分支预测的目标分类cls_pred之后,与真值cls_target进行loss
cls
的计算得到:
[0071]
loss
cls
=loss
bcewithlogits
(cls_pred,cls_target)
[0072]
其中cls_pred代表网络输出的该目标所属每一类的概率,cls_target代表标注下该目标所属类别。
[0073]
经过回归任务的解耦分支得到是否包含物体以及目标的坐标范围,根据预测的是否包含目标结果进行loss
obj
的计算,与loss
cls
类似也采用bcewithlogits损失函数进行计算,预测值obj_pred和真值obj_target之间进行loss
obj
的计算得到:
[0074]
loss
obj
=loss
bcewithlogits
(obj_pred,obj_target)
[0075]
根据回归分支解耦得到的目标的坐标范围可以进行loss
iou
的计算,损失函数采用的是giou,交并比iou损失函数被大量用在目标检测的回归框的loss计算中,其中的不同之处为:
[0076]
加入有两个不同的矩形区域a和b,其中a是预测得到的目标位置信息,b是真值,a与b之间的iou计算公式为:
[0077][0078]
由于iou无法反映a、b之间的对齐方式,所以giou应运而生。而giou的计算需要在iou的基础上,需要得到一个包围a和b的最小矩形c,然后用iou(a,b)减去c中没有覆盖到a和b的面积与c面积的比值:
[0079][0080]
loss
iou
=giou(a,b)
[0081]
总的损失loss
total
可以表示为:
[0082]
loss
total
=α1·
loss
cl
s+α2·
loss
obj
+α3·
loss
iou
[0083]
其中loss
cls
表示分类损失,loss
obj
表示置信度损失,loss
iou
表示预测框位置损失。
其中α1、α2、α3为权重因子,并且满足α1+α2+α3=1,权重因子的权重由当前该项的损失值和之前的损失值共同决定。相对标准偏差为为当前项的历史损失值的方差与历史损失平均值之比,ci与损失值大小无关,将损失大小和损失权重解耦,当某项损失值的方差较大时,代表该项不稳定,则增加该项权重,当某项损失值的方差较小时,证明该项基本稳定,给定一个较小的权重。其中将相对偏差归一化即得到该项的损失权重。
[0084]
步骤5,将得到的损失值反向传播,更新加入全空间编码注意力模块的深度检测神经网络的网络参数,根据设置的最大迭代次数、学习率和反向传播算法,经过反复训练,直至带有全空间编码注意力模块的目标检测网络参数收敛,得到最终的检测模型;
[0085]
步骤6,将准备的sar图像测试集输入到网络中,进行检测网络的测试,得到网络的检测结果,获得各项检测指标,并在原图上叠加进行可视化。
[0086]
本发明实施例采用的是由2017年公开的一个用于sar图像检测的船舶数据集——ssdd数据集。该数据集共包含1160张图片,图像尺寸在500
×
400左右,其中的图像具有不同的分辨率、拍摄方式。其标注文件为voc格式,将船舶统称为“ship”,并且包括其位置信息。每张图片中包含不同个数的船舶,并且船舶尺寸不同、拍摄环境不同,包括近海和远海,被广泛应用于sar目标检测中。以及为了测试其在陆上复杂背景下目标检测性能,对hrsd0.5高分辨率sar图像数据集中的油罐目标进行手工标注,同样进行处理。
[0087]
本发明实施例在将训练集送入网络之前,使用了数据增强操作:对图片进行颜色变化、随机翻转、旋转和mosaic数据增强等操作。mosaic数据增强即:从数据集中随机挑选4张图片,将这四张图片进行随机大小变化,生成一张新图片,将这四张图片分别放置在新生成的图片的四角,并将原来的标注信息也相应的进行相应的变换附加到新的图片上。
[0088]
设置送入网络的图片大小统一为416
×
416像素大小,batch_size大小为32,同时使用两张2080ti的gpu进行训练,共训练250轮,学习策略使用随机梯度下降法(sgd),权值衰减系数为0.0005,动量系数设置为0.9,学习率更新策略为带有warm_up的余弦退火算法,在前5轮学习率逐渐从0升到最大学习率0.001,然后按照余弦函数进行衰减,训练过程的后20轮不进行数据增强。检测的类别数设置为1,非极大值抑制的阈值为0.6。
[0089]
实验结果显示增加了eseab的深度目标检测神经网络与未增加eseab的深度目标检测神经网络相比map提高了3.2个百分点,达到了60.3,说明加入注意力机制的网络能够显著提高网络的性能。图5分别给出了加入eseab模块前后在远海以及近海中的船舶目标检测效果。图5中的a和c是近海未加入eseab模块的检测结果,图5中的b和d是加入eseab模块后的检测效果,可以发现在近海情形下未加入注意力机制的网络出现了误检和漏检现象。图5中的e是远海未加入eseab模块的检测结果,f是远海加入eseab模块后的检测效果,发现在近海有陆地噪声比较嘈杂,所以未加入eseab模块的网络容易出现错检现象。
[0090]
由于陆地目标的sar图像与海洋目标sar图像相比,其背景更加复杂,所以使用了sar图像的油罐检测数据集进行训练,比较加入eseab模块前后的检测效果。从图6中可以看出,左侧a图在检测过程中的错检现象十分明显,错把背景识别成目标物体。所以加入了eseab模块之后的网络在陆地上这种复杂背景下,b图中目标检测的错检率低很多,说明本发明中加入eseab模块能够使得网络提取到更加有用的信息,降低周围噪声的干扰。
[0091]
所以加入本发明提出增加了eseab的深度目标检测神经网络,在近海、远海以及陆
地目标上的检测效果都能够得到一个较大的提升,并且能够轻松地插入到其它网络结构中。
[0092]
需要强调的是:以上仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1