基于对比学习无监督预训练-微调式的雷达目标识别方法

文档序号:31508849发布日期:2022-09-14 10:47阅读:114来源:国知局
基于对比学习无监督预训练-微调式的雷达目标识别方法

1.本发明属于雷达目标识别领域,具体的讲,涉及一种基于对比学习无监督预训练-微调式的雷达目标识别方法。


背景技术:

2.高分辨宽带雷达的距离分辨率远小于目标尺寸,其回波也被称为目标的一维高分辨距离像(hrrp)。hrrp中包含了对分类和识别极有价值的结构信息,如目标的径向尺寸、散射点分布等,具有广阔的工程应用前景。因此,基于hrrp的雷达自动目标识别方法逐步成为雷达自动目标识别领域研究的热点。
3.随着雷达技术的不断成熟,早期基于诸如统计模型、流行学习以及核方法的大部分传统hrrp识别方法已经能够获取目标强散射点的分布并进行识别分类,但是大多数的传统方法基于全连接结构进行分帧建模,遗漏了帧间关联信息,无法捕获反映hrrp特性的结构信息,同时还对目标数据的完备程度要求较高,然而在实际环境中的识别对象通常是非合作的目标,采集到的样本角域信息不完整,数据的分布无法达到实验理想状态,从而增加了在特征提取过程中对研究者经验的依赖性。近些年深度学习算法的盛兴,改变了传统的全连接结构,可以自动获取hrrp数据中蕴含的深层次特征。
4.传统的hrrp特征提取方法主要分为两大部分:(1)基于变换(transformer)的特征提取方法,如谱图等。这些方法都是将hrrp信号投影到频域,之后对其频域特征进行建模识别。(2)基于降维后的数据,进行特征提取的方法。虽然传统特征提取方法有很好的识别性能,但是这些方法大多是无监督且有损的,并且特征提取方法的选择高度依赖科研人员对数据的认识和经验,因此,很多情况下,难以达到好的效果。对hrrp目标特征的学习与提取是雷达目标识别过程中举足轻重的一个环节。针对以上传统方法的不足和hrrp数据的特点,本文利用改进的深度学习网络对目标hrrp进行识别分类,融合了泛化能力强的网络来充分捕捉hrrp中有效的结构信息,在构建复杂模型的同时还优化了网络中的参数,实现更快的收敛和更高的识别性能。


技术实现要素:

5.为了解决上述问题,本发明提供一种基于对比学习无监督预训练-微调式的雷达目标识别方法。
6.本发明提出了一种使用对比学习(contrastive learning)方法的深度学习模型来学习雷达hrrp数据的通用特征表示,并用于下游任务(downstream task),使这种无监督的对比学习方法使网络实现了更深的训练,利用无监督预训练好的模型学习到hrrp样本中有效的特征表示,之后不再需要大量的带标签hrrp训练样本,就能够应用于各种下游任务并进行微调(fine-tune),从而得到多种不同的适用于hrrp目标识别的高性能鲁棒模型,为雷达hrrp识别提供了一种新的思路和通用方法。对比学习最大的优势就在于能够更好地提取不同角域下hrrp样本之间蕴含的相似性通用特征,并将其用于合适的下游任务进行识别
分类,能够在严苛的小样本目标环境下依旧保持一定的识别能力,为雷达目标识别提供一种新的通用思路和方法。
7.基于对比学习无监督预训练-微调式的雷达目标识别方法,包括以下步骤:
8.s1:对原始hrrp样本集进行预处理。
9.通过l2强度归一化的方法对原始hrrp回波进行处理,从而改善hrrp的强度敏感性问题。hrrp是通过距离窗从雷达回波数据中截取的,在截取的过程中录取的距离像在距离波门中的位置不固定,从而导致了hrrp的平移敏感性。为了使训练和测试具备统一标准,采用重心对齐法消除平移敏感性。
10.s2:对处理过的hrrp样本进行平移处理实现数据扩充。
11.s3:采用reshape和数据增强的方式增加hrrp样本的结构多样性,使模型学到更多的有效特征信息。
12.s4:将通过不同的数据增强方法得到的hrrp样本输入simsiam模块。
13.simsiam模块包括随机数据增强、骨干网络、投影器和预测器四部分,其中骨干网络和投影器组成编码器网络。通过不同的数据增强方法对扩充之后的hrrp样本采样,然后进入编码器网络进行编码,通过最大化来自同一hrrp样本的不同视图的特征向量之间的一致性来进行特征匹配,再通过投影器提取hrrp样本高质量的主要特征表示,有助于对比预测任务获取通用的一致性表示。将输出特征传入预测器中,估计simsiam模块的整体期望,即通过反向传播优化网络参数,同时过滤部分高层的无效特征信息,使hrrp样本中的特征信息被充分保留以进行对比预测优化。
14.s5:通过在扩充的雷达hrrp样本上采用对比学习对simsiam模块进行无监督预训练后,使经过编码器网络的输出和利用有监督训练得到的输出具有一样的通用特征信息,再将编码器网络的输出在下游分类模块上进行微调(fine-tune),通过shape操作后再输入下游分类模块中,最终实现hrrp识别分类。
15.s6:将hrrp样本正确分类的预测胶囊特征通过重构模块重构目标数据,还原成初始的输入,参与训练。
16.进一步的,所述s1详细步骤为:
17.s1.1:强度归一化。将原始hrrp表示为其中l1表示hrrp内包含的距离单元总数,则强度归一化之后的hrrp可以表示为:
[0018][0019]
s1.2:样本对齐。平移hrrp使其重心g1移至附近,这样hrrp中包含信息的那些距离单元将分布在中心附近。其中hrrp重心g1的计算方法如下:
[0020][0021]
进一步的,所述s2详细步骤为:
[0022]
为了在预训练过程中避免过拟合并且获得hrrp数据中重要的语义信息,通过将每个敏感性处理后的hrrp样本的重心向左和向右分别平移1到4个距离单元进行数据扩充,使
得可供无监督预训练的样本在原始的训练集基础上增加8倍的数据量,进而在一定程度上提升网络对新样本的泛化能力。
[0023]
进一步的,所述s3详细步骤为:
[0024]
s3.1:首先,数据敏感性预处理之后的雷达hrrp样本仍然是1
×
256的一维向量数据,为了使数据维度匹配,利用unsqueeze()函数增加数据的维度,将hrrp样本的形状转变为一个四维张量再对hrrp样本进行reshape操作,此时进入simsiam模块中的编码器网络的形式是其次,对16
×
16形式的hrrp样本进行数据增强操作,包括随机剪裁、随机高斯模糊、水平翻转和缩放来增加hrrp的结构多样性。最后,将数据增强后的hrrp样本进行归一化操作。
[0025]
进一步的,所述s4详细步骤为:
[0026]
s4.1:随机数据增强:
[0027]
随机数据增强操作是为了生成每个hrrp样本的两组不同视图用于自监督对比学习任务,即用于对比学习任务的视图x

和x

由hrrp样本分别经过两个随机数据增强得到。
[0028]
s4.2:骨干网络部分:
[0029]
选取resnet-50作为骨干网络,resnet-50由1个卷积输入层、4个残差卷积块和1个全连接输出层组成,其中残差卷积块包括16个卷积组块,每个卷积组块均由相同数量的卷积层构成。卷积输入层的设置是为了保留增强后的hrrp视图相邻特征的语义信息和全局特征信息,并构建合理的空间关系,有助于提取hrrp的有效特征。残差块作为网络的主要组成部分,先利用1
×
1卷积核的卷积层转换特征的维度(升维或者降维)。再用3
×
3卷积核的卷积层提取有效特征,最后引入恒等映射加快深层网络层与层之间关联信息的流动并充分利用每一层的特征,最终提取出有效且有意义的hrrp特征表示,提升识别性能。每个残差卷积块均使用了relu激活函数和批归一化单元,提高了模型的泛化能力。
[0030]
s4.3:投影器部分:
[0031]
投影器的核心作用就是过滤hrrp视图特征表示中的冗余信息或者无关的语义信息,保留最主要的非线性特征并对这个特征向量进行l2正则化,再将其映射到单位超球面空间进行对比匹配预测,最大化两个hrrp视图表征之间相似性结构信息,也就是约束超球面空间中向量之间的一致性程度和网络的训练过程,从而获得通用的hrrp样本相似性特征表示。深层的投影器能够提升hrrp特征表达的质量,也能够提升对比学习的性能,因此为投影器构建了三个线性的全连接层(fullyconnectedlayer,fc),每一层后都接了bn层,其中全连接层的输出维度是2048。将经骨干网络输出的特征记作yi,则编码器网络的输出特征zi的计算表达式如下:
[0032]
zi=g(yi)=w
(3)
σ(w
(2)
σ(w
(1)
yi))
[0033]
其中σ表示relu激活函数,g表示投影函数,w表示每一个全连接层的权重矩阵。为了便于分析忽略了偏置项对网络的影响。投影器中bn层的存在使各层输出的空间分布被重新调整,除去了每一个batch内hrrp样本间共有的部分特征,具有差异性的特征得到保留并用于对比预测的任务。
[0034]
s4.4:预测器部分:
[0035]
预测器包含了两个全连接层、bn层和激活层三部分。其中第一个全连接层的输入
维度和输出维度都是2048,第二个全连接层的输出维度是512。经预测器输出的特征向量pi计算表达式如下:
[0036]
pi=h(zi)=w
(2)
σ(w
(1)
zi)
[0037]
其中h表示预测函数,σ表示relu激活函数,w
(1)
、w
(2)
分别表示第一个全连接层和第二个全连接层的权重矩阵。
[0038]
s4.5:simsiam工作机制:
[0039]
利用em算法定义simsiam的损失,表达式如下:
[0040][0041]
其中表示用于特征提取的编码器网络,θ是一个可学习的参数,x是hrrp样本,表示hrpp数据输入前的随机数据增强函数,期望表示关于hrrp样本x和随机数据增强方法的分布,换言之,等价于全部hrrp样本和随机数据增强的损失期望的和。η
x
是hrrp样本x的特征表达即编码器网络输出的特征向量zi。使用均方误差(mean squared error,mse)来计算相似度。此时simsiam的工作方式类似于k-means聚类算法,固定一个变量求解另外一个变量,这就是em迭代算法。将其转换为以下两个子问题:
[0042][0043][0044]
其中

代表赋值操作,r表示算法迭代更新的次数。使用随机梯度下降(stochastic gradientdescent,sgd)算法计算第一个子问题中θr的解,通过公式(4-5-2),停止梯度的反向传播到η
r-1
,则η
r-1
在公式(4-5-2)中即是一个常量,假如没有停止梯度的反向传播,公式中存在两个变量,导致无法求解。
[0045]
求得θr的解之后,将其代入第二个子问题中,此时公式(4-5-3)中只存在一个变量η,需要最小化每一个hrrp样本x的期望再将公式(4-5-1)代入公式(4-5-3),则第二个子问题的求解就转换成:
[0046][0047]
根据期望公式变换得到:
[0048][0049]
此时代表在第r次迭代更新时某个hrrp样本x的特征表示是由样本x通过随机数据增强期望求得的。
[0050]
根据公式(4-5-5)对变换后的第二个子问题做一次随机数据增强公式如下:
[0051][0052]
再代入到公式(4-5-2),得到:
[0053][0054]
其中θr是公式(4-5-2)方程的解,和表示两种不同的作用于某个hrrp样本的数据增强方法,则该式子可以看作是一个孪生双塔架构。
[0055]
在simsiam模块分支的其中一侧加入预测器,将其定义为h1,z1为hrrp样本的特征表示根据期望公式,将公式(4-5-4)转化为:
[0056]
h1(z1)=ez[z1]=e
t
[f(t(x))]
ꢀꢀ
(4-5-8)
[0057]
由于直接计算随机增强的期望值比较困难,为了便于分析,将增强后的期望等价于其本身的期望。
[0058]
进一步的,所述s5详细步骤为:
[0059]
选取胶囊网络作为下游分类模块,训练时只微调更新胶囊网络中的参数,simsiam中编码器的权重参数由无监督预训练学习得到并固定,编码器作为一个特征提取网络,从hrrp样本提取有意义的关键特征。经过编码器网络提取到的特征维度是2048,即1
×
2048的向量特征,接着通过2048
×
256的全连接层进行降维,得到维度是256的特征,通过shape操作后再输入胶囊网络中,最终实现hrrp识别分类。
[0060]
进一步的,所述s6详细步骤为:
[0061]
s6.1:重构模块可以看作一个解码器,用于将hrrp样本正确分类的预测胶囊特征还原成初始的输入,即输出维度为256的向量,并参与整个模型的训练,用于辅助对照hrrp分类的结果。具体地说,将胶囊网络预测胶囊层中单位长度最大的高级胶囊表示作为重构目标,并经过三个带激活函数的全连接层,输出得到重构的目标数据。
[0062]
s6.2:基于对比学习无监督预训练-微调式的雷达目标识别方法包含数据预处理模块、siamsam模块、下游分类模块以及重构模块。初始化simsiam模块以及下游分类模块中所有待训练的权重及偏置,设置训练参数,包括学习率、batch_size、训练批次,对simsiam模块以及胶囊网络进行训练。
[0063]
进一步的,基于对比学习无监督预训练-微调式的雷达目标识别方法所构建的网络的总损失由胶囊分类损失ld与重构损失l
rec
两部分构成,并且损失ld起主导作用,表达式如下:
[0064]
loss

=ld+l
rec
[0065]
胶囊形式使多个分类能够同时存在,所以胶囊网络的训练过程由marginloss作为损失函数ld,由每个预测胶囊的损失相加得到,表达式为:
[0066]
ld=ydmax(0,m
+-||vd||)2+λ(1-yd)max(0,||vd||-m-)2[0067]
其中d表示hrrp目标类别,yd是表示训练中的分类标签,m
+
、m-为固定的超参数,分别设置为0.9、0.1,λ是防止网络求解局部最优的系数,设置为0.5。当训练过程中预测胶囊匹配到正确的hrrp样本d时,yd=1,并且在这个预测胶囊预测的概率超过0.9时损失置零,当概率低于0.9时计算得到相应的损失值进行优化;同样地,预测胶囊匹配到错误的hrrp样本时,也就是样本中不存在类别d,则yd=0。上述过程实际上是对每个预测胶囊进行了二分类的操作,同时引入参数λ保证了网络训练过程的稳定性。
[0068]
重构模块中解码过程的重构损失l
rec
表示的是输入hrrp样本和重构数据之间的差
距,将两者间的欧氏距离作为重构损失,并加入整个胶囊网络的损失一起训练网络的参数,其表达式如下:
[0069][0070]
其中h
ic
表示初始hrrp样本,h
ir
表示重构数据,α是缩放系数,并设置为0.0005,使胶囊分类损失在总损失中占主导的地位。
[0071]
因此,胶囊网络总损失函数可由下式定义:
[0072][0073]
本发明的有益效果是:
[0074]
本发明受大规模的无监督预训练模型在学习表征方面取得重大进展的启发,本发明基于对比学习simsiam模块提出的一种获取不同角域下hrrp样本间蕴含的一致性通用特征的方法,并将该特征应用于不同的下游任务进行分类,成为一套通用的hrrp识别方法标准。同时在预训练阶段对数据做了额外的预处理以增加hrrp样本的多样性,预处理后的模型将不再受限于大量的训练样本,通过微调在小规模的样本量上也有较好的识别性能,一定程度上克服了hrrp的小样本敏感性,在实际应用中具有现实意义。
[0075]
1、本发明中采用数据增强的方式来增加hrrp样本的结构多样性,为对比学习无监督预训练提供大量丰富多样性的训练样本,从而能够在大型的resnet-50上得到较好的预训练效果,让模型学到更多的有效特征信息,有助于提升迁移到下游分类任务的识别性能。
[0076]
2、本发明采用自监督学习方法,利用无标签样本进行自监督表示学习,对比学习方法充分挖掘数据集中抽象的语义信息,帮助模型对无标签数据进行学习得到一个编码器,提取出有效的通用特征并应用于不同的下游任务。对比学习的性能也依赖于网络的深度,深度越深,表征学习能力越强,此外,对比学习的训练时间越长,性能也随之增强。将合适的深层网络、训练方式和优化方法应用于对比学习方法中,其性能可能不会弱于端到端的监督学习。对比学习作为目前相对新颖的研究方向,未来其在不同领域的实际工程应用中的发展有着不可估量的潜力。从人们利用科技手段的目标来说,无监督学习正是未来人工智能发展的大势所趋,与大规模应用的有监督学习相比,对比学习方法减少了时间、人力资源等成本的投入,在提升效率的前提下性能也不输于监督学习,因此基于对比学习方法的雷达hrrp目标识别具有较高的研究前景与价值。
[0077]
3、本发明应用simsiam表征学习网络,simsiam是一种带stop-grad机制的非对称孪生结构的表征学习网络,在简单孪生网络的其中一个分支引入predictor,另一个分支引入stop-gard机制,构造成不对称的两个分支网络来避免模式坍塌。该模块最大程度地保留原始hrrp样本中有意义的特征信息并通过预训练学习得到一个提取hrrp有效的一致性信息的特征提取器,再接入下游分类器,微调分类器部分的参数,这样的做法有助于更好地学习不同hrrp样本之间相似性结构信息,并充分提取与利用,达到一个好的识别效果。
[0078]
4、本发明应用下游分类模块,通过在扩充的雷达hrrp数据集上用对比学习无监督预训练后,使得经过编码器出来的输出和利用有监督训练得到的输出具有一样的通用特征信息,再利用这些特征在下游分类模块上进行微调(fine-tune)。通过定义不同的下游分类
模块我们能够得到各种不同的应用于hrrp目标识别的通用鲁棒模型,为雷达hrrp目标识别领域提供了一种新的思路和方法。
附图说明
[0079]
图1:基于对比学习的无监督预训练-微调范式的雷达目标识别方法的步骤流程图。
[0080]
图2:simsiam模块工作流程示意图。
具体实施方式
[0081]
参照图1,为本发明的一种基于对比学习的无监督预训练-微调范式的的雷达高分辨距离像识别技术流程图,具体实施步骤如下:
[0082]
s1:对原始hrrp样本集进行预处理。
[0083]
由于hrrp的强度是雷达发射功率、目标距离、雷达天线增益和雷达接收机增益等因素共同决定的,在利用hrrp进行目标识别前,我们通过l2强度归一化的方法对原始hrrp回波进行处理,从而改善hrrp的强度敏感性问题。hrrp是通过距离窗从雷达回波数据中截取的,在截取的过程中录取的距离像在距离波门中的位置不固定,从而导致了hrrp的平移敏感性。为了使训练和测试具备统一标准,采用重心对齐法消除平移敏感性。
[0084]
s1.1:强度归一化。将原始hrrp表示为其中l1表示hrrp内包含的距离单元总数,则强度归一化之后的hrrp可以表示为:
[0085][0086]
s1.2:样本对齐。平移hrrp使其重心g1移至附近,这样hrrp中包含信息的那些距离单元将分布在中心附近。其中hrrp重心g1的计算方法如下:
[0087][0088]
原始hrrp样本经过强度归一化和重心对齐法处理之后幅值已经被限制在0-1之间,不仅统一了尺度,而且在0-1之间的数值非常有利于后续的神经网络处理;分布偏右或偏左的hrrp回波信号都被调整到了中心点附近。
[0089]
s2:对处理过的hrrp样本进行平移处理实现数据扩充,为对比学习无监督预训练提供大量丰富多样性的训练样本,进而在一定程度上提升网络对新样本的泛化能力。
[0090]
为了在预训练过程中避免过拟合并且获得hrrp数据中重要的语义信息,通过将每个敏感性处理后的hrrp样本的重心向左和向右分别平移1到4个距离单元进行数据扩充,使得可供无监督预训练的样本在原始的训练集基础上增加8倍的数据量,进而在一定程度上提升网络对新样本的泛化能力。
[0091]
s3:采用reshape和数据增强的方式增加hrrp样本的结构多样性,使模型学到更多的有效特征信息,有助于提升迁移到下游分类任务的识别性能。
[0092]
s3.1:首先,数据敏感性预处理之后的雷达hrrp样本仍然是1
×
256的一维向量数
据,为了使数据维度匹配,利用unsqueeze()函数增加数据的维度,将hrrp样本的形状转变为一个四维张量再对hrrp样本进行reshape操作,此时进入simsiam模块中的编码器网络的形式是其次,对16
×
16形式的hrrp样本进行数据增强操作,包括随机剪裁、随机高斯模糊、水平翻转和缩放来增加hrrp的结构多样性。最后,将数据增强后的hrrp样本进行归一化操作,通过在每个hrrp样本上减去均值来移除一部分共有的特征,突出不同样本间特征的差异性,有助于模型学习和识别hrrp样本中的主要特征,减少反向传播时的梯度,加快对比学习预训练的收敛和网络的学习速度,增加泛化能力。
[0093]
s4:将通过不同的数据增强方法得到的hrrp样本输入simsiam模块。
[0094]
simsiam模块包括随机数据增强、骨干网络、投影器和预测器四部分,其中骨干网络和投影器组成编码器网络。通过不同的数据增强方法对扩充之后的hrrp样本采样,然后进入编码器网络进行编码,通过最大化来自同一hrrp样本的不同视图的特征向量之间的一致性来进行特征匹配,再通过投影器提取hrrp样本高质量的主要特征表示,有助于对比预测任务获取通用的一致性表示。将输出特征传入预测器中,估计simsiam模块的整体期望,即通过反向传播优化网络参数,同时过滤部分高层的无效特征信息,使hrrp样本中的特征信息被充分保留以进行对比预测优化。
[0095]
s4.1:随机数据增强:
[0096]
随机数据增强操作是为了生成每个hrrp样本的两组不同视图用于自监督对比学习任务,即用于对比学习任务的视图x

和x

由hrrp样本分别经过两个随机数据增强得到。与监督学习的有标签输入得到输出不同,自监督学习在数据没有标签的场景下用一种合理的方式进行自我监督,先把训练样本x分成x

和x

两部分,将x

输入模型中得到输出y,再将y和x

进行比较,两者在某一个特征空间中的距离越小越好,数据的一部分x

作为输入,另外一部分x

作为监督信号,这就是自监督学习。
[0097]
s4.2:骨干网络部分:
[0098]
本发明通过比较不同深度网络中的参数量、计算量以及网络结构对hrrp数据的特征表示质量和识别性能的影响,最终选取具有强大表征能力、较高性价比和立体网络结构的resnet-50作为骨干网络,该网络不仅在hrrp样本上展现出较好的识别性能,还具有较强的实时性,非常适合在实际雷达探测环境中对hrrp目标的识别任务。resnet-50由1个卷积输入层、4个残差卷积块和1个全连接输出层组成,其中残差卷积块包括16个卷积组块,每个卷积组块均由相同数量的卷积层构成。卷积输入层的设置是为了保留增强后的hrrp视图相邻特征的语义信息和全局特征信息,并构建合理的空间关系,有助于提取hrrp的有效特征。残差块作为网络的主要组成部分,先利用1
×
1卷积核的卷积层转换特征的维度(升维或者降维),卷积核的数量影响每一层的输出维度,同时降低输出的参数数量,起到减少整体网络参数量的作用。再用3
×
3卷积核的卷积层提取有效特征,最后引入恒等映射加快深层网络层与层之间关联信息的流动并充分利用每一层的特征,最终提取出有效且有意义的hrrp特征表示,提升识别性能。每个残差卷积块均使用了relu激活函数和批归一化单元,提高了模型的泛化能力。
[0099]
s4.3:投影器部分:
[0100]
投影器的核心作用就是过滤hrrp视图特征表示中的冗余信息或者无关的语义信息,保留最主要的非线性特征并对这个特征向量进行l2正则化,再将其映射到单位超球面空间进行对比匹配预测,最大化两个hrrp视图表征之间相似性结构信息,也就是约束超球面空间中向量之间的一致性程度和网络的训练过程,从而获得通用的hrrp样本相似性特征表示。深层的投影器能够提升hrrp特征表达的质量,也能够提升对比学习的性能,因此为投影器构建了三个线性的全连接层(fullyconnectedlayer,fc),每一层后都接了bn层,其中全连接层的输出维度是2048。将经骨干网络输出的特征记作yi,则编码器网络的输出特征zi的计算表达式如下:
[0101]
zi=g(yi)=w
(3)
σ(w
(2)
σ(w
(1)
yi))
[0102]
其中σ表示relu激活函数,g表示投影函数,w表示每一个全连接层的权重矩阵。为了便于分析忽略了偏置项对网络的影响。投影器中bn层的存在使各层输出的空间分布被重新调整,除去了每一个batch内hrrp样本间共有的部分特征,具有差异性的特征得到保留并用于对比预测的任务,这也在一定程度上进行了隐式的对比。
[0103]
s4.4:预测器部分:
[0104]
预测器包含了两个全连接层、bn层和激活层三部分。其中第一个全连接层的输入维度和输出维度都是2048,第二个全连接层的输出维度是512。经预测器输出的特征向量pi计算表达式如下:
[0105]
pi=h(zi)=w
(2)
σ(w
(1)
zi)
[0106]
其中h表示预测函数,σ表示relu激活函数,w
(1)
、w
(2)
分别表示第一个全连接层和第二个全连接层的权重矩阵。
[0107]
s4.5:simsiam工作机制:
[0108]
利用em算法定义simsiam的损失,表达式如下:
[0109][0110]
其中表示用于特征提取的编码器网络,θ是一个可学习的参数,x是hrrp样本,表示hrpp数据输入前的随机数据增强函数,期望表示关于hrrp样本x和随机数据增强方法的分布,换言之,等价于全部hrrp样本和随机数据增强的损失期望的和。η
x
是hrrp样本x的特征表达即编码器网络输出的特征向量zi。使用均方误差(mean squared error,mse)来计算相似度,这样的优化形式就与em算法或者k-means算法十分类似,变量θ是编码器中一个可学的参数,可看作一个聚类中心。变量η
x
则与hrrp样本x的对应向量(譬如k-means的one-hot向量)类似,是hrrp样本的特征表达。此时simsiam的工作方式类似于k-means聚类算法,固定一个变量求解另外一个变量,这就是em迭代算法。将其转换为以下两个子问题:
[0111][0112][0113]
其中

代表赋值操作,r表示算法迭代更新的次数。使用随机梯度下降
(stochastic gradientdescent,sgd)算法计算第一个子问题中θr的解,通过公式(4-5-2),停止梯度的反向传播到η
r-1
,则η
r-1
在公式(4-5-2)中即是一个常量,假如没有停止梯度的反向传播,公式中存在两个变量,导致无法求解。因此simsiam中的stop-grad操作就得到合理的解释。
[0114]
求得θr的解之后,将其代入第二个子问题中,此时公式(4-5-3)中只存在一个变量η,需要最小化每一个hrrp样本x的期望再将公式(4-5-1)代入公式(4-5-3),则第二个子问题的求解就转换成:
[0115][0116]
根据期望公式变换得到:
[0117][0118]
此时代表在第r次迭代更新时某个hrrp样本x的特征表示是由样本x通过随机数据增强期望求得的。
[0119]
对这两个子问题进行一次sgd优化求解的过程可以近似于simsiam的工作过程。根据公式(4-5-5)对变换后的第二个子问题做一次随机数据增强公式如下:
[0120][0121]
再代入到公式(4-5-2),得到:
[0122][0123]
其中θr是公式(4-5-2)方程的解,和表示两种不同的作用于某个hrrp样本的数据增强方法,则该式子可以看作是一个孪生双塔架构。
[0124]
我们在一次迭代中使用一次sgd优化来减小损失,这样的计算过程就近似于引入stop-grad机制孪生双塔架构的simsiam的优化过程。此外,通过增加迭代优化中sgd的次数,在一定程度上能提升simsiam的泛化能力和性能,而本文只使用了一次的sgd。
[0125]
在simsiam模块分支的其中一侧加入预测器,将其定义为h1,z1为hrrp样本的特征表示根据期望公式,将公式(4-5-4)转化为:
[0126]
h1(z1)=ez[z1]=e
t
[f(t(x))]
ꢀꢀ
(4-5-8)
[0127]
由于直接计算随机增强的期望值比较困难,为了便于分析,将增强后的期望等价于其本身的期望,此时预测器的存在能够补偿特征表示z1和期望之间的难以直接关联的鸿沟,因为在数个不同的epoch中使用随机增强方法的采样符合一种稳定的均匀分布,这样的分布比较容易被网络学习记住,从而通过表征z1来预测期望值。
[0128]
s5:通过在扩充的雷达hrrp样本上采用对比学习对simsiam模块进行无监督预训练后,使经过编码器网络的输出和利用有监督训练得到的输出具有一样的通用特征信息,再将编码器网络的输出在下游分类模块上进行微调(fine-tune),通过shape操作后再输入
下游分类模块中,最终实现hrrp识别分类。
[0129]
选取胶囊网络作为下游分类模块,训练时只微调更新胶囊网络中的参数,simsiam中编码器网络的权重参数由无监督预训练学习得到并固定,编码器网络作为一个特征提取网络,从hrrp样本提取有意义的关键特征,这个通用特征表达能够很好地迁移到不同的下游任务中且性能极强。经过编码器网络提取到的特征维度是2048,即1
×
2048的向量特征,接着通过2048
×
256的全连接层进行降维,得到维度是256的特征,通过shape操作后再输入胶囊网络中,最终实现hrrp识别分类。
[0130]
s6:将hrrp样本正确分类的预测胶囊特征通过重构模块重构目标数据,还原成初始的输入,参与训练。
[0131]
s6.1:重构模块可以看作一个解码器,用于将hrrp样本正确分类的预测胶囊特征还原成初始的输入,即输出维度为256的向量,并参与整个模型的训练,用于辅助对照hrrp分类的结果。具体地说,将胶囊网络预测胶囊层中单位长度最大的高级胶囊表示作为重构目标,并经过三个带激活函数的全连接层,输出得到重构的目标数据。
[0132]
s6.2:基于对比学习无监督预训练-微调式的雷达目标识别方法包含数据预处理模块、siamsam模块、下游分类模块以及重构模块。初始化simsiam模块以及下游分类模块中所有待训练的权重及偏置,设置训练参数,包括学习率、batch_size、训练批次,对simsiam模块以及胶囊网络进行训练。
[0133]
实施例
[0134]
训练阶段:
[0135]
s1:采集数据集,将雷达采集到的hrrp样本依据目标的种类进行合并,每种种类的样本分别在不同的数据段里选择训练样本和测试样本,在训练集和测试集的选取过程中,保证所选取的训练集样本与雷达所成姿态涵盖测试集样本与雷达所成的姿态。各类目标训练集和测试集样本数的比例为7:3。
[0136]
s2:对经过s1所提取数据集中的样本做预处理,具体操作步骤如下:
[0137]
s2.1:强度归一化。将原始hrrp表示为其中l1表示hrrp内包含的距离单元总数,则强度归一化之后的hrrp可以表示为:
[0138][0139]
s2.2:样本对齐。平移hrrp使其重心g1移至附近,使得hrrp中包含信息的距离单元分布在中心附近。其中hrrp重心的计算方法如下:
[0140][0141]
s3:对样本进行reshape和数据增强处理,具体步骤如下:
[0142]
s3.1:数据敏感性预处理之后的雷达hrrp样本仍然是1
×
256的一维向量数据,为了使数据维度匹配,我们在实验的开始利用unsqueeze()函数增加数据的维度,此时hrrp数据的形状转变为一个四维张量再对hrrp样本进行reshape操作,此时进
入对比学习模块中的编码器网络的形式是
[0143]
s3.2:其次,我们对16
×
16形式的hrrp训练样本进行数据增强操作,包括随机剪裁、随机高斯模糊、水平翻转和缩放来增加hrrp的结构多样性。最后,将剪裁缩放后的hrrp样本进行归一化操作,通过在每个hrrp样本上减去均值来移除一部分共有的特征,突出不同样本间特征的差异性。
[0144]
s4:将处理后的样本传入simsiam模块,具体步骤如下:
[0145]
s4.1:将通过不同的数据增强方法得到的hrrp样本输入由随机数据增强、骨干网络、投影器和预测器组成的simsiam模块,在经过随机数据增强处理后进入编码器进行编码,通过最大化来自同一hrrp样本的不同视图的特征向量之间的一致性来进行特征匹配,再通过进入投影器来提取hrrp样本高质量的主要特征表示。将输出特征传入预测器,进行反向传播优化网络参数。
[0146]
s5:将输出特征经过shape操作后传入下游分类模块,具体步骤如下:
[0147]
通过在扩充的雷达hrrp样本上用对比学习无监督预训练后,使得经过编码器出来的输出和利用有监督训练得到的输出具有一样的通用特征信息,再利用这些特征在下游分类模块上进行微调(fine-tune),通过shape操作后再输入胶囊网络中,最终实现hrrp识别分类。
[0148]
s6:构建重构模块,设计损失函数,开启训练,具体步骤如下:
[0149]
s6.1:将胶囊网络预测胶囊层中单位长度最大的高级胶囊表示作为重构目标,并经过三个带激活函数的全连接层,输出得到重构的目标数据。
[0150]
s6.2:损失函数设计。基于对比学习无监督预训练-微调式的雷达目标识别方法所构建的网络的总损失由胶囊分类损失ld与重构损失l
rec
两部分构成,并且损失ld起主导作用,表达式如下:
[0151]
loss

=ld+l
rec
[0152]
胶囊形式使多个分类能够同时存在,所以胶囊网络的训练过程由marginloss作为损失函数ld,由每个预测胶囊的损失相加得到,表达式为:
[0153]
ld=ydmax(0,m
+-||vd||)2+λ(1-yd)max(0,||vd||-m-)2[0154]
其中d表示hrrp目标类别,yd是表示训练中的分类标签,m
+
、m-为固定的超参数,分别设置为0.9、0.1,λ是防止网络求解局部最优的系数,设置为0.5。当训练过程中预测胶囊匹配到正确的hrrp样本d时,yd=1,并且在这个预测胶囊预测的概率超过0.9时损失置零,当概率低于0.9时计算得到相应的损失值进行优化;同样地,预测胶囊匹配到错误的hrrp样本时,也就是样本中不存在类别d,则yd=0。上述过程实际上是对每个预测胶囊进行了二分类的操作,同时引入参数λ保证了网络训练过程的稳定性。
[0155]
重构模块中解码过程的重构损失l
rec
表示的是输入hrrp样本和重构数据之间的差距,将两者间的欧氏距离作为重构损失,并加入整个胶囊网络的损失一起训练网络的参数,其表达式如下:
[0156][0157]
其中h
ic
表示初始hrrp样本,h
ir
表示重构数据,α是缩放系数,并设置为0.0005,使
胶囊分类损失在总损失中占主导的地位。
[0158]
因此,胶囊网络总损失函数可由下式定义:
[0159][0160]
s6.3:初始化simsiam模块以及胶囊网络中所有待训练的权重及偏置,设置训练参数,包括学习率、batch_size、训练批次,开启模型训练。
[0161]
测试阶段:
[0162]
s7:对由s1采集到的测试数据进行训练阶段的步骤s2、s3预处理操作;
[0163]
s8:将经过s7处理的样本送入训练完毕的simsiam模块以及胶囊网络中进行测试求得结果,即最后经过simsiam的输出会通过下游分类模块进行分类。hrrp测试样本x
test
对应于目标集中第k类雷达目标的概率可计算为:
[0164][0165]
其中exp(
·
)表示取指数运算,c表示类别个数。
[0166]
通过最大后验概率将测试hrrp样本x
test
分类到最大目标概率的k0中:
[0167][0168]
经过上述8个步骤,即可得到本发明所提出的一种基于对比学习无监督预训练-微调式的雷达目标识别方法。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1