一种基于R-D图与深度神经网络的低空小目标检测方法与流程

文档序号:21365733发布日期:2020-07-04 04:40阅读:348来源:国知局
一种基于R-D图与深度神经网络的低空小目标检测方法与流程

本发明属于雷达信号处理及图像识别领域,涉及一种基于r-d(range-doppler,距离-多普勒)图与深度神经网络的低空小目标检测方法。



背景技术:

近年来,应军民领域的需求,以无人机为代表的低空小型飞行器急速发展。同时此类目标具有“散射截面积小、飞行速度慢、飞行高度低”的特点,致使传统频域滤波检测技术难以得到有效运用。为了降低杂波及干扰的不利影响,传统的雷达目标检测方法在数据预处理之后,通常采用恒虚警率(cfar)的方法识别目标,其识别过程存在以下两个问题:

1.接受电磁波信号的概率分布难以预知,cfar处理无法准确根据参考单元的能量分布情况对待检测单元做出判决;

2.cfar处理依赖于人工调整阈值,自适应性弱,不能主动地随信号的变化而进行调整。

本发明基于雷达信号距离-多普勒图中目标区域单元的幅值分布特点,提出了一种range-doppler图与深度神经网络的低空小目标检测方法。与现有技术仅根据预测的类别概率识别目标不同,本发明在实现低空小目标类别检测的同时增加了针对对目标位置的回归预测,并通过回归结果的投票统计获得目标的精确位置,从而可以实现预测精度更高、虚警率更低的检测效果。



技术实现要素:

针对上述提到的雷达目标检测存在的不足,本发明提出一种基于r-d图与深度神经网络的低空小目标检测方法。本发明能使雷达更准确地检测低空小目标的位置,自主地适应不同种类信号回波,并保证虚警率维持在较低水平。

本发明的技术方案主要包括如下步骤:

步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的r-d图(range-doppler图);

步骤2、构建深度卷积神经网络并利用网络预测r-d图中每个局部区域分别属于目标和背景的类别概率,以及该区域包含目标时,其中心与目标位置之间的偏移量;

步骤3、结合预测的类别概率和位置回归的偏移量,判断是否存在,以及存在目标时的目标位置。

所述的步骤1具体包括以下几个步骤:

1-1、将雷达接收机采集的一维离散回波信号,以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由n个长度为r的脉冲信号组成,则二维矩阵信号的大小为n×r;

1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:

xi=ai-1+ai+1-2ai,1<i<n

其中ai代表第i行未经对消的脉冲信号序列;

1-3、对滤波后位于同一距离单元的信号序列yj,1≤j≤r进行加窗操作,即:

zj=yj×g(n)

g(n)=0.54-0.46cos[2πn/(n-2)],0≤n<n-2为汉明窗函数,具有与脉冲重复周期数相同的点数;

1-4、对加窗结果进行快速傅立叶变换(fft)并求模,得到r-d图m:

m=(|fft[zj]|),1≤j≤r

所述的步骤2利用深度神经网络从计算得到的r-d图中预测目标信息,具体实现流程如下:

2-1、使用滑动窗口技术对r-d图做切片处理,获取一系列代表不同r-d单元的图像块(patch)。为提高目标定位的准确率,滑动窗口的宽和高均为奇数,且根据目标回波在r-d图中的分布范围设定;

2-2、对每个图像块(patch)进行限幅处理,即假设图像块(patch)中元素的最大值为patchmax,则通过将每一个单元的幅值除以patchmax使得图像块(patch)中元素的最大值为1;

2-3、利用构建的深度神经网络计算输入的图像块(patch)分别属于目标和背景的类别概率,以及该图像块(patch)包含目标时,该图像块中心与目标实际位置之间的偏移量。

具体地,构建的深度卷积神经网络由三个部分组成:用于空间特征提取的全卷积神经网络,用于特征映射的bp神经网络,以及两个用于图像块类别与位置预测的功能层。各部分的具体结构描述如下:

第一部分用于空间特征提取的全卷积神经网络共包含3个卷积层,均使用3×3大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、16和32。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×2、步长为2的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(relu);

第二部分用于特征映射的bp神经网络由两个全连接层构成,分别包含200和100个隐含节点,且第一层的输入是展平成一维向量的图像卷积特征;

第三部分两个用于图像块类别与位置预测的功能层,由输出节点数均为2的类别预测层和位置回归层组成,分别与特征映射模块最后一层的100个节点之间进行全连接。为便于观测,类别预测层会使用softmax函数将网络的原始输出值转化为概率,计算公式为:

其中为类别预测层第i个节点的原始输出,ncls为类别预测层的节点个数。

为了成功训练构建的深度卷积神经网络,步骤2中需要注意以下几点:

(1)从雷达信号的r-d图获得一系列图像块之后,首先根据是否包含目标将所有的图像块分为正样本和负样本,然后采用随机方式从负样本中抽取与正样本等量的图像块作为训练数据,与正样本一起输入深度卷积神经网络进行训练。

(2)深度卷积神经网络的损失函数由分类损失losscls和回归损失lossreg两部分组成,且分类采用交叉熵损失,而回归采用smoothl1损失。数学上,网络训练时的损失由下式获得:

losstotal=losscls+λ·lossreg

其中λ为调整两类损失贡献大小的权重因子,ncls和nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个patch的真实类别标签,是patch包含目标时其中心与目标位置之间的相对偏移量,而(dxk,dyk)为位置回归层的输出。假设目标在range-doppler图中的位置为(xobj,yobj),含有目标的patch的中心在range-doppler图中的位置为(x,y),且patch的宽高分别为w和h,则该patch相对于目标的实际偏移量(dx*,dy*)为:

(3)由于losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;

(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;

(5)使用学习率为0.001,动量系数为0.9的动量梯度下降(momentumsgd)方法优化网络参数。

所述的步骤3结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果,具体分为基于类别概率的初步识别和基于位置投票的精确识别两个部分,其流程如下:

3-1、预设目标存在的概率阈值为tp,若某一图像块属于目标的预测概率大于等于阈值tp,则初步判别该图像块包含目标,并将其中心在r-d图中的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;

3-2、根据目标图像块的分布密度进一步剔除识别错误的图像块。具体地,对每个值为1的r-d单元,统计其(w/2,h/2)邻域内单元值为1的个数nones,若nones/(w·h)<0.5,则认为该单元所对应的图像块为背景,其中w和h为图像块的宽和高;

3-3、对每个可能包含目标的图像块,利用网络位置回归层的预测结果(dx,dy)估计目标在r-d图中的真实位置(xpre,ypre),具体计算公式如下:

xpre=round(x+dx·w)

ypre=round(y+dy·h)

其中(x,y)为图像块中心在range-doppler图中的位置,round(·)为四舍五入就近取整函数。

3-4、统计所有图像块的位置投票结果,即range-doppler图中每个单元被认为是目标位置的次数。若单元(x,y)处的投票统计结果nxy满足下述条件则判定单元(x,y)处存在目标:

其中为参与投票且包含单元(x,y)的图像块数量,tvote为设定的投票阈值。

本发明有益效果如下:

本发明将包含深度神经网络的智能算法应用于雷达信号的目标检测中,使模型具有很强的自适应性。通过学习不同种类信号的特征,算法可应对难以预知概率分布的场景。在保证合理的虚警率之内,有效地改善了传统检测方法对信号种类识别单一的缺陷。相较需要人工分析的恒虚警处理,可实现无人监督的实时目标检测。

附图说明

图1为本发明基于range-doppler图与深度神经网络的低空小目标检测流程示意图;

图2为本发明构建的深度神经网络结构图;

图3为本发明图基于类别概率和位置偏移量的目标检测流程示意图。

具体实施方式

下面结合附图和具体实施方式对本发明作详细说明,以下描述仅作为示范和解释,并不对本发明作任何形式上的限制。

通用的检测步骤已在“发明内容”中详述,现结合实例对本发明的检测流程做具体描述,图1是整体的处理流程示意图。

本发明的技术方案主要包括如下步骤:

步骤1、对雷达接收机采集的回波信号进行预处理,获取信号的range-doppler图;

1-1、将雷达接收机采集的一维离散回波信号以脉冲重复周期为分割单元转换成二维矩阵形式,即若一维离散回波信号由n个长度为r的脉冲信号组成,本实验中n=64,r=856,则二维矩阵信号的大小为n×r=64×856;

1-2、使用三脉冲对消法对每一行脉冲信号做滤波处理,滤波后的信号为:

xi=ai-1+ai+1-2ai,1<i<n

其中ai代表第i行未经对消的脉冲信号序列;

1-3、三脉冲对消后二维矩阵信号的大小为62×856,对滤波后位于同一距离单元的信号序列yj,1≤j≤r进行加窗操作,即:

zj=yj×g(n)

g(n)=0.54-0.46cos[2πn/(n-2)],0≤n<n-2为汉明窗函数,具有与脉冲重复周期数相同的点数;

1-4、对加窗结果进行快速傅立叶变换(fft)并求模,得到range-doppler图m:

m=(|fft[zj]|),1≤j≤r

步骤2、构建深度卷积神经网络并利用网络预测range-doppler图中每个局部区域分别属于目标和背景的概率,以及该区域包含目标时,其中心与目标位置之间的偏移量;

2-1、使用滑动窗口技术对range-doppler图做切片处理,获取一系列代表不同range-doppler单元的图像块(patch)。为提高目标定位的准确率,滑动窗口的宽和高均为奇数,且根据目标回波在range-doppler图中的分布范围设定,本实验中采用宽为33,高为9的滑动滑窗;

2-2、对每个patch进行限幅处理,即假设patch中元素的最大值为patchmax,则通过将每一个单元的幅值除以patchmax使得patch中元素的最大值为1;

2-3、利用构建的深度神经网络计算输入patch分别属于目标和背景的概率,以及该patch包含目标时,其中心与目标实际位置之间的偏移量。

具体地,构建的深度卷积神经网络由三个部分组成:用于空间特征提取的全卷积神经网络,用于特征映射的bp神经网络,以及两个用于patch类别与位置预测的功能层。图2为深度神经网络的结构图,其各部分的具体结构描述如下:

第一部分共包含3个卷积层,均使用3×3大小的卷积核进行滤波,步长为1,且滤波器的个数分别16、16和32。为了减少模型参数,提高计算速度,同时提高所提取特征的鲁棒性,在第二个和第三个卷积层之后分别是一个窗口大小为2×2、步长为2的最大池化层。每个卷积层之后默认跟着一个激活层,且激活函数为广泛使用的线性整流函数(relu);

第二部分由两个全连接层构成,分别包含200和100个隐含节点,且第一层的输入是展平成一维向量的图像卷积特征;

第三部分由输出节点数均为2的类别预测层和位置回归层组成,分别与特征映射模块最后一层的100个节点之间进行全连接。为便于观测,类别预测层会使用softmax函数将网络的原始输出值转化为概率,计算公式为:

其中为分类层第i个节点的原始输出,ncls为分类层的节点个数。

深度神经网络的训练包括以下几个细节:

(1)从雷达信号的range-doppler图获得一系列patch之后,首先根据是否包含目标将所有的patch分为正样本和负样本,然后采用随机方式从负样本中抽取与正样本等量的patch作为训练数据,与正样本一起输入网络进行训练。

(2)网络的损失函数由分类损失losscls和回归损失lossreg两部分组成,且分类采用交叉熵损失,而回归采用smoothl1损失。数学上,网络训练时的损失由下式获得:

losstotal=losscls+λ·lossreg

其中λ为调整两类损失贡献大小的权重因子,本实验中取λ=10,ncls和nreg为一次迭代中参与训练的样本总数和正样本数量,lk∈{0,1}是第k个patch的真实类别标签,是patch包含目标时其中心与目标位置之间的相对偏移量,而(dxk,dyk)为位置回归层的输出。假设目标在range-doppler图中的位置为(xobj,yobj),含有目标的patch的中心在range-doppler图中的位置为(x,y),且patch的宽高分别为w=33和h=9,则该patch相对于目标的实际偏移量(dx*,dy*)为:

(3)由于losscls的计算含有对数操作,对分类层的预测概率的下限进行限定,以避免概率为0时引起的计算错误;

(4)采用标准差为0.1的截断正态分布对网络权重进行初始化,以使更多参数的取值分布在靠近0的范围内;

(5)使用学习率为0.001,动量系数为0.9的动量梯度下降(momentumsgd)方法优化网络参数。

(6)初次训练网络可将最大迭代次数设置为500次。

步骤3、结合每个局部区域的类别概率和位置回归偏移量获取目标检测结果,可分为基于类别概率的初步识别和基于位置投票的精确识别两个部分,如图3所示,其流程如下:

3-1、预设目标存在的概率阈值为tp=0.9,若某一patch属于目标的预测概率大于等于阈值tp,则初步判别该patch包含目标,并将其中心在range-doppler图中的位置标为1;反之认为其代表的区域为背景,将相应位置标为0;

3-2、根据目标patch的分布密度进一步剔除识别错误的patch。具体地,对每个值为1的range-doppler单元,统计其(w/2,h/2)邻域内单元值为1的个数nones,若nones/(w·h)<0.5,则认为该单元所对应的patch为背景,其中w=33和h=9为patch的宽和高;

3-3、对每个可能包含目标的patch,利用网络位置回归层的预测结果(dx,dy)估计目标在range-doppler图中的真实位置(xpre,ypre),具体计算公式如下:

xpre=round(x+dx·w)

ypre=round(y+dy·h)

其中(x,y)为patch中心在range-doppler图中的位置,round(·)为四舍五入就近取整函数。

3-4、统计所有patch的位置投票结果,即range-doppler图中每个单元被认为是目标位置的次数。若单元(x,y)处的投票统计结果nxy满足下述条件则判定(x,y)处存在目标:

其中为参与投票且包含(x,y)单元的patch数量,tvote为投票阈值,根据经验设置为0.25。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1