一种基于相位优化的深度学习测向方法与流程

文档序号:21962925发布日期:2020-08-25 18:47阅读:731来源:国知局
一种基于相位优化的深度学习测向方法与流程

本发明涉及一种基于相位优化的深度学习测向方法,属于阵列信号处理技术领域。



背景技术:

电磁波、声波等信号的到达角估计在雷达、声纳以及无线通信等领域都起到了关键的作用,通过估计信号的来波方向,可以有助于后续的波束成形优化以及目标定位等。常用的测向方法一般分为传统傅里叶变换方法和超分辨率方法,在傅里叶变换方法中,将阵列信号的空间采样等效为信号的时域采样,因此把测向问题等效为频谱估计问题,所以可以通过阵列接收信号的傅里叶变换获得空间谱信息,再利用峰值搜索实现测向功能,该方法的目标方位分辨能力较低,受限于阵列孔径,无法突破空间谱分辨的瑞利限。而角度分辨能力可以突破瑞利限的方法,一般被称为超分辨方法,典型的超分辨方法为基于子空间的music和esprit算法,其中music算法通过估计噪声子空间,实现对空间谱的高精度估计,而esprit算法利用信号子空间的旋转不变特性实现响应的方位测量。子空间的方法可以获得远优于傅里叶变换的测向精度,但是该方法需要计算阵列信号的协方差矩阵,并对该矩阵做特征值分解来求取信号和噪声的子空间,该计算过程复杂度高,很难实现实时处理,而且在fpga等硬件实现方面会占用更多的资源。

在采用深度学习的波达角估计方面,现有的方法依然延续了子空间方法的架构,即将阵列信号的协方差矩阵作为神经网络的输入,利用训练获得相应的波达角输出。该方法相对于子空间方法,复杂度较低,便于硬件实现。但是协方差矩阵的求解依然需要大量的快拍,实时性较差,并且随着阵列中天线单元的增加,协方差维度也以平方级增加,导致神经网络输入节点增加过多,加大后续训练的难度。

综合考虑现有的阵列测向技术,主要面临如下几个问题:

1)高精度的测向方法未能充分考虑实际系统对计算复杂度的要求,复杂度普遍偏高,而低复杂度的算法测向精度又较差,无法实现复杂度与测向精度之间的平衡;

2)现有基于深度学习的测向方法也是以协方差矩阵作为输入,导致神经网络的复杂度随着天线数量的增加而显著增加,导致训练难度增加,不易收敛。



技术实现要素:

本发明所要解决的技术问题是:提供一种基于相位优化的深度学习测向方法,解决了现有测向方法中复杂度高、实时性差的问题,通过优化神经网络的输入信号,结合深度学习理论,达到高实时性的测向性能。

本发明为解决上述技术问题采用以下技术方案:

一种基于相位优化的深度学习测向方法,包括如下步骤:

步骤1,构建阵列天线的接收信号模型,并对阵列天线中的所有天线从1开始依次编号;

步骤2,以阵列天线中其中一个天线的接收信号作为参考,对其他天线的接收信号进行归一化,归一化后,计算每个天线的接收信号相位;

步骤3,采用角度优化方法对每个天线的接收信号相位进行优化,得到优化后的相位,具体为:

对第二个天线的接收信号相位与第一个天线的接收信号相位作差,得到相位差值,将该相位差值作为参考值,来判断所有天线接收信号的来波方向是位于正角度区域还是负角度区域;

当所有天线接收信号的来波方向位于正角度区域时,除第一、第二个天线外,其他天线的接收信号相位呈递增趋势,优化过程如下:将第三至第n个天线的接收信号相位加上360°,n为所有天线的数量,从第三个天线开始,判断下一个天线的接收信号相位是否大于等于前一个天线的接收信号相位,当第i个天线的接收信号相位大于等于第i-1个天线的接收信号相位时,继续判断第i+1个天线的接收信号相位是否大于等于第i个天线的接收信号相位;当第i个天线的接收信号相位小于第i-1个天线的接收信号相位时,对第i至第n个天线的接收信号相位加上360°;从第i个天线开始,重复上述过程,直至第n个天线,i=4,5,…,n,即第1至第n个天线优化后的相位呈递增趋势;

当所有天线接收信号的来波方向位于负角度区域时,除第一、第二个天线外,其他天线的接收信号相位呈递减趋势,优化过程如下:将第三至第n个天线的接收信号相位减去360°,n为所有天线的数量,从第三个天线开始,判断下一个天线的接收信号相位是否小于等于前一个天线的接收信号相位,当第i个天线的接收信号相位小于等于第i-1个天线的接收信号相位时,继续判断第i+1个天线的接收信号相位是否小于等于第i个天线的接收信号相位;当第i个天线的接收信号相位大于第i-1个天线的接收信号相位时,对第i至第n个天线的接收信号相位减去360°;从第i个天线开始,重复上述过程,直至第n个天线,i=4,5,…,n,即第1至第n个天线优化后的相位呈递增趋势;

步骤4,构建基于深度学习的神经网络模型,将优化后的相位作为所构建的神经网络模型的输入,神经网络模型的输出为估计得到的波达角。

作为本发明的一种优选方案,步骤1所述阵列天线的接收信号模型为:

y=ds+w

其中,y为阵列天线接收信号构成的向量,d为信号方位形成的导向矢量矩阵,s为不同方位的信号,w为噪声。

作为本发明的一种优选方案,步骤2所述归一化的计算公式为:

其中,y0表示其中一个天线的接收信号,yn表示某待归一化天线的接收信号,y′n表示某归一化后天线的接收信号。

作为本发明的一种优选方案,步骤3所述将该相位差值作为参考值,来判断所有天线接收信号的来波方向是位于正角度区域还是负角度区域,具体过程为:

若该相位差值为正值,则所有天线接收信号的来波方向是位于正角度区域;若该相位差值为负值,则所有天线接收信号的来波方向是位于负角度区域。

作为本发明的一种优选方案,步骤4所述神经网络模型的损失函数为:

其中,为神经网络模型的损失函数,θ为波达角的真实值,为波达角的估计值。

本发明采用以上技术方案与现有技术相比,具有以下技术效果:

1、本发明解决了一般阵列天线测向过程中,采用协方差矩阵等方法面临的复杂度高,关键信息不明显,容易受到信号变化影响的问题,通过信号的归一化以及相位优化,可以有效挖掘出测向过程中的关键信息,即天线间信号的相位差,并充分利用该相位差实现测向的功能。

2、本发明通过将到达角估计问题建模为深度学习的数据挖掘问题,充分利用阵列天线之间的相位差,结合深度学习理论,从相位差中挖掘出来波方向,采用深度学习的方法,可以有效降低高分辨测向的复杂度,达到实时的波达角估计,并且深度神经网络的鲁棒性较强,不易受到模数转换量化精度、功放非线性、以及多天线通道之间的幅度相位不一致性的影响,可以应用到硬件条件较差的场景中。

附图说明

图1是本发明测向系统的多天线示意图。

图2是本发明的相位优化过程框图。

图3是本发明波达角估计的神经网络架构。

图4是本发明在不同信噪比条件下的测向精度。

具体实施方式

下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。

为了实现低复杂度的高精度测向,本发明设计了一种结合相位优化与深度学习的测向方法,旨在通过挖掘多天线间信号的相位差,作为神经网络的输入,通过神经网络训练,最终输出波达角的估计结果,有效提高阵列天线中的到达角估计性能。

天线之间存在间隔,而该间隔导致了各个天线之间接收信号存在相位上的不同,利用该相位差异可以实现对接收信号到达角度的估计。

如图1所示,为本发明所考虑的多天线系统,通过分析每根天线上接收信号的相位差,可以实现对接收信号的方位估计,其工作过程包括如下内容:

内容1:构造接收信号的阵列模型,并通过阵列信号模型分析天线之间信号的相位关系;

阵列天线的接收信号模型一般可以表示为:

y=ds+w

其中,d为信号方位形成的导向矢量矩阵,s为不同方位的信号,w为噪声,y为阵列接收信号构成的向量。另外,当考虑阵列的幅度、相位不一致性、功放非线性和数字模拟转换的量化精度误差时,接收信号的模型会变为非线性模型,此情况并不影响本发明方法的使用。

如图1所示,通过分析各个天线的接收信号,可以构建接收信号模型,一般地,这里可以假设信号与阵列天线之间的距离远大于信号的波长,可以构成远场模型,于是可以将接收信号表示为与接收信号方位之间的关系,但是该关系为非线性关系,不易直接通过接收信号中估计波达角方位。而且相位存在360°的周期特征,所以首先需要对接收信号做相位优化。

内容2:由于相位存在周期特性,通过阵列信号的相位关系调整周期性的影响,将调整后的相位关系作为神经网络的输入;

以其中一根天线的接收信号y0作为参考,其他信号相对其做归一化,即:

其中,yn表示某待归一化天线的接收信号,yn′表示某归一化后天线的接收信号。归一化后,可以计算每个信号的相位,即angle(yn′),但是该角度存在360°的周期特性,所以无法有效反映信号的到达方位。本发明给出了一种角度优化方法,可以修正相位的周期影响,更加容易反映信号方位。

如图2所示,我们针对每根天线的接收信号相位做优化,以第二根天线的信号相位与第一根天线的信号相位差值作为参考值,可以发现信号的来波方向是位于正角度区域还是负角度区域,从而判断其他接收信号相位的趋势为增加还是减少。若信号相位的趋势为增加,而由于信号的周期特征,会存在信号的相位小于之前信号,此时需要将之后天线的所有接收信号相位加上360°;相反地,若信号的相位趋势为降低,对信号相位增加的天线及其之后的天线相位都要减去360°。依次计算,直至所有的相位趋势满足要求。该优化后的相位即可以作为深度神经网络的输入。

内容3:构建基于深度学习的神经网络模型,该网络模型以天线间信号的相位关系为输入,输出为估计得到的波达角;

如图3所示,将优化后的相位作为神经网络的输入,而输出为波达角的估计值,并且神经网络中结合激活层,实现对任意非线性函数的逼近。该神经网络的损失函数(lossfunction)可以定义为:

其中,θ为波达角的真实值,为波达角的估计值。训练神经网络以最小化该损失函数,可以采用的优化器为adam等。

内容4:神经网络模型一般包括一个输入层,一个输出层,以及多个(≥1)隐藏层。

如图3所示的神经网络,一般需要≥1个的隐藏层,从而实现对角度的正确估计。一般可以采用5个隐藏层,可以在较少训练时间的条件下,获得可以接受的波达角估计性能。

表1仿真参数

下面给出本发明的一个验证例,验证本发明可以获得优良的测向性能。仿真参数如表1所示,针对3个来波信号,采用6层神经网络进行测向,通过10万次优化训练后,对该神经网络的测向性能进行测试,测试结果如图4所示,从图中可以发现当信噪比(signal-to-noiseratio,snr)大于20db时,可以获得5°以内的测向精度,而当snr大于40db时,测向误差<1°,由此可以发现,所提方法可以在较低复杂度条件下,有效实现接收信号的测向,其中,rmse表示均方根误差,doaestimation表示方位估计,proposedmethod表示本方法。

以上实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1