1.本发明涉及信号处理技术领域,尤其涉及一种信号重构方法、装置、计算机设备及存储介质。
背景技术:2.稀疏信号重构(sparse signal reconstruction,简称ssr)算法作为信号处理领域中的一个重要分支,已经在图像处理、传感器阵列信号处理与射电天文学等理论与实际应用中得到了广泛的关于与研究。尤其是随着2006年稀疏信号精确重构准则的提出,压缩感知理论得到了飞速发展,也涌现出了许多性能更加良好的稀疏信号重构算法。
3.其中,以范数最小化算法为代表,将稀疏信号重构问题转换为一个二阶锥规划问题,并利用牛顿法、内点法等凸优化数学工具进行求解,进而得到最终的稀疏信号重构结果。这一类算法的优势是显而易见的,一方面在于稀疏信号精确重构准则与凸优化理论的支持,能够强有力的保证该类算法的重构信号精度,另一方面由于该类算法不依赖于多快拍采样数据的二阶统计量数学模型,也不依赖于信号子空间与噪声子空间的正交性,因此能够直接处理相干信源,可以适用于当今日益复杂的电磁环境。
4.但是,上述传统稀疏信号重构算法自从被提出以来却一直饱受着诸多问题的困扰,极大地限制了该类算法在实际工程领域中的应用,这些问题主要体现在以下两个方面:一是网格失配问题。通常情况下,在实际的生产生活中,标准的稀疏信号是不存在的,或者说某一个原始信号只是在某一个固定的向量基上的表示是稀疏的。因此,传统的稀疏信号重构算法首先需要确定一组正交的向量基,将非稀疏的原始信号进行稀疏表示,才能够建立稀疏信号重构数学模型。但是,原始信号的非稀疏分量不一定能够正好落在预先设置好的稀疏表示向量基上,这就导致了信号能量在稀疏向量基上的能量溢出。这种原始信号的非稀疏分量与稀疏表示向量基不匹配的问题通常被称为网格失配问题。网格失配问题属于算法的模型误差,严重影响着重构信号的精度,可以说是目前限制稀疏信号重构算法进一步广泛应用的最重要因素。
5.二是参数选择问题。传统的稀疏信号重构算法会依赖于许多先验的参数设置,对于不同的稀疏信号重构算法可能会需要更多的先验参数。通常情况下,信号的稀疏度并不是先验的,而正则化参数的选取目前尽管已经存在了许多先进理论,但不仅会增加算法的复杂度,提高的精度也十分有限。
6.针对上述网格失配问题和参数选择问题,cn109490819a提出了一种利用稀疏贝叶斯学习的方法与离网稀疏信号重构数学模型来解决稀疏信号的重构问题。上述专利采用的离网稀疏信号重构数学模型虽然能够在一定程度解决网格失配问题,但对算法估计精度的提高幅度有限,同时依赖于大量的先验参数与初始化参数,在先验参数未知的情况下,或初始化参数选取不当,都会严重影响算法的性能。
技术实现要素:7.有鉴于此,本发明提出了一种信号重构方法、装置、计算机设备及存储介质,解决了传统技术方案在解决稀疏信号重构时,出现的网格失配问题和参数选择问题,提高了信号重构精度,并且通过本发明的方案使得稀疏信号重构算法不再依赖于预先设置的稀疏表示向量基以及先验参数,提高了稀疏信号重构算法对于不同原始信号以及不同应用场景的鲁棒性。
8.基于上述目的,本发明实施例的一方面提供了一种信号重构方法,具体包括如下步骤:基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;计算所述交替方向乘子算法数学模型的增广拉格朗日函数;构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
9.在一些实施方式中,构建深度神经网络模型包括:构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
10.在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:基于所述深度神经网络模型接收采样信号;基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
11.在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;基于所述正则化增广拉格朗日函数得到更新公式;将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
12.在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;响应于所述迭代次数达到预设迭代次数,输出原始最优解。
13.在一些实施方式中,方法还包括:响应于所述原始变量不满足所述原始残差阈值或所述对偶变量不满足对偶残差阈值,返回将所述采样信号和所述初始化参数输入到所述更新公式的步骤以更新所述原始变量和所述对偶变量。
14.在一些实施方式中,方法还包括:响应于所述迭代次数未达到预设迭代次数,基于所述原始变量和所述对偶变量更新所述正则化参数,并返回将所述正则化参数输入到所述增广拉格朗日函数的步骤以更新所述更新公式。
15.在一些实施方式中,基于所述原始变量和所述对偶变量更新所述正则化参数包括:基于所述原始变量和所述对偶变量更新正则化参数计算公式以更新正则化参数。
16.在一些实施方式中,基于所述正则化增广拉格朗日函数得到更新公式包括:基于所述正则化增广拉格朗日函数得到原始变量更新公式、半正定矩阵更新公式和对偶变量更新公式。
17.在一些实施方式中,所述深度神经网络模型包括迭代运算单元和正则化参数更新单元;所述迭代运算单元配置用于基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解;所述正则化参数更新单元配置用于基于所述原始变量和所述对偶变量更新所述正则化参数。
18.本发明实施例的另一方面,还提供了一种信号重构装置,包括:第一计算模块,所述第一计算模块配置为基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;第二计算模块,所述第二计算模块配置为基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;第三计算模块,所述第三计算模块配置为计算所述交替方向乘子算法数学模型的增广拉格朗日函数;构建模块,所述构建模块配置为构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
19.在一些实施方式中,所述构建模块配置为构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
20.在一些实施方式中,所述构建模块包括接收子模块和第一计算子模块,其中,所述接收子模块配置为基于所述深度神经网络模型接收采样信号;所述第一计算子模块配置为基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
21.在一些实施方式中,所述第一计算子模块配置为执行以下步骤:将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
22.本发明实施例的另一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,所述存储器存储有可在所述处理器上运行的计算机程序,所述处理器执行所述程序时执行如下步骤:基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;计算所述交替方向乘子算法数学模型的增广拉格朗日函数;构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
23.在一些实施方式中,构建深度神经网络模型包括:构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
24.在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:基于所述深度神经网络模型接收采样信号;基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
25.在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;基于所述正则化增广拉格朗日函数得到更新公式;将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
26.在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;响应于所述迭代次数达到预设迭代次数,输出原始最优解。
27.本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
28.本发明至少具有以下有益技术效果:通过本发明的方案解决了传统技术方案在解
决稀疏信号重构时,出现的网格失配问题和参数选择问题,提高了信号重构精度;并且通过本发明的方案使得稀疏信号重构算法不再依赖于预先设置的稀疏表示向量基以及先验参数,提高了稀疏信号重构算法对于不同原始信号以及不同应用场景的鲁棒性。
附图说明
29.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
30.图1为本发明提供的信号重构方法的一实施例的框图;图2为本发明提供的深度神经网络模型的一实施例的结构示意图;图3为本发明提供的深度神经网络模型的迭代运算层的一实施例的结构示意图;图4为本发明提供的信号重构装置的一实施例的示意图;图5为本发明提供的计算机设备的一实施例的结构示意图;图6为本发明提供的计算机可读存储介质的一实施例的结构示意图。
具体实施方式
31.为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
32.需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
33.基于上述目的,本发明实施例的第一个方面,提出了一种信号重构方法的实施例。如图1所示,其包括如下步骤:s10、基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;s20、基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;s30、计算所述交替方向乘子算法数学模型的增广拉格朗日函数;s40、构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
34.具体的,考虑存在噪声的情况下,采样信号的数学模型可以被表示为如下的形式:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)其中:(2)表示m个采样点的fourier系数。为原始信号的归一化频率。表示
虚数单位,即。。y表示带噪声的采样数据,为原始信号向量,表示第k个信号的振幅,为噪声向量。
35.基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型,原子范数最小化稀疏信号重构算法数学模型具体可以表示为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)其中,为正则化参数,表示向量的范数,代表矩阵为一个半正定矩阵,运算符的具体形式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(4)向量x,u以及参数t均为待求解的优化变量,u1即为向量u中的第一个元素。
36.另外,表示复数的共轭复数。
37.在本发明中,采用交替方向乘子算法(alternating direction method of multipliers,admm)来解决上述的基于原子范数最小化的稀疏信号重构问题。
38.具体的,首先,基于交替方向乘子算法和原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型,由此将基于原子范数最小化的稀疏信号重构问题等价为半正定规划问题。交替方向乘子算法数学模型具体可以表示为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(5)然后,确定交替方向乘子算法数学模型的增广拉格朗日(lagrangrian)函数,增广lagrangrian函数具体可以表示为:
(6)其中,为lagrangrian乘子,为正则化参数。
39.之后,构建深度神经网络模型,并基于构建的深度神经网络模型对增广拉格朗日函数进行计算得到原始最优解,输出的原始最优解即对原始信号的重构。
40.基于原子范数最小化(atomic norm minimization,anm)的无网格稀疏信号重构算法是在连续域中选取的一组无限维度的稀疏表示向量基,与传统稀疏信号重构算法在离散域上选取有限维度的稀疏表示向量基存在着本质上的不同。由此将后续的凸优化求解问题从一个二阶锥规划问题进化为一个半正定锥规划问题。基于原子范数最小化稀疏信号重构算法数学模型的连续域无限维度的稀疏表示向量基从根本上解决网格失配问题,能够保证后续算法的估计精度,进而提高了信号重构精度。
41.在交替方向乘子算法数学模型的基础上构建深度神经网络模型,将正则化参数、稀疏度等先验参数设置为深度神经网络中的参数,对深度神经网络进行训练的过程便可以被视为稀疏信号重构算法中参数选择的过程,解决了原子范数最小化的稀疏信号重构问题,进而得到稀疏信号的重构结果,最终使得稀疏信号重构算法不再依赖于预先设置的稀疏表示向量基以及先验参数,提高算法对于不同原始信号以及不同应用场景的鲁棒性。
42.在一些实施方式中,构建深度神经网络模型包括:构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
43.在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:基于所述深度神经网络模型接收采样信号;基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
44.在一具体实施例中,输入采样数据,即采样信号到深度神经网络模型;在深度神经网络模型设置正则化参数λ和ρ,设置初始化参数,初始化参数包括迭代次数、绝对阈值参数、相对阈值参数、随机变量与;输出原始最优解u
*
。
45.在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;基于所述正则化增广拉格朗日函数得到更新公式;将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
46.在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;响应于所述迭代次数达到预设迭代次数,输出原始最优解。
47.在一些实施方式中,方法还包括:响应于所述原始变量不满足所述原始残差阈值或所述对偶变量不满足对偶残差阈值,返回将所述采样信号和所述初始化参数输入到所述更新公式的步骤以更新所述原始变量和所述对偶变量。
48.在一些实施方式中,方法还包括:响应于所述迭代次数未达到预设迭代次数,基于所述原始变量和所述对偶变量更新所述正则化参数,并返回将所述正则化参数输入到所述增广拉格朗日函数的步骤以更新所述更新公式。
49.在一具体实施例中,基于如公式(6)的增广lagrangrian函数,得到原始变量更新公式、半正定矩阵更新公式和对偶变量更新公式。
50.原始变量更新公式为:(7)固定增广lagrangrian函数中的λ(i)与s(i),按原始变量更新公式更新x,u与t。
51.半正定矩阵更新公式为:(8)根据更新后的u
(i+1)
与t
(t+1)
以及半正定矩阵更新公式,确定s
(i+1)
。
52.根据对偶变量更新公式更新lagrangrian乘子,对偶变量更新公式为:(9)定义原始残差与对偶残差:(10)基于定义的原始残差与对偶残差计算原始残差阈值与对偶残差阈值:
(11)其中,参数与为初始化设置的绝对阈值与相对阈值参数。
53.在一具体实施例中,基于构建的深度神经网络模型对增广拉格朗日函数进行计算得到原始最优解的具体过程如下:s111、设置初始化参数,初始化参数包括迭代次数i=0、绝对阈值参数》0、相对阈值参数》0、随机变量与;设置初始正则化参数λ和ρ;s112、接收采样信号;s113、将初始化正则化参数输入到增广拉格朗日函数,得到正则化增广拉格朗日函数,增广拉格朗日函数和正则化增广拉格朗日函数的表达式是相同的,区别在于正则化增广拉格朗日函数是将初始化正则化参数的值,代入公式(6)而得到的增广拉格朗日函数;s114、基于正则化增广拉格朗日函数得到更新公式,即公式(7)、(8)、(9);s115、将采样信号输入到公式(7),并将初始化参数同时输入到公式(7)、(8)、(9),根据公式(7)得到原始变量x
(i+1)
,u
(i+1)
与t
(t+1)
,根据公式(8)更新变量s
(i+1)
、根据公式(9)更新对偶变量λ
(i+1)
;s116、根据公式(10)与(11),分别计算原始残差r(i)、对偶残差u(i)与原始残差阈值、对偶残差阈值;s117、判断原始变量是否满足原始残差阈值,以及对偶变量是否满足对偶残差阈值;s118、响应于原始变量不满足原始残差阈值或对偶变量不满足对偶残差阈值,返回步骤s115;s119、响应于原始变量满足原始残差阈值并且对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数,例如,若同时满足与,则进行迭代次数的判断;s120、响应于迭代次数未达到预设迭代次数,基于原始变量和对偶变量更新正则化参数,并返回步骤s113以基于更新的正则化参数更新更新公式;s121、响应于迭代次数达到预设迭代次数,输出原始最优解u
*
,原始最优解即本次迭代得到的原始变量u
(i+1)
,输出原始最优解u
*
=u
(i+1)
。
54.在一些实施方式中,基于所述原始变量和所述对偶变量更新所述正则化参数包括:基于所述原始变量和所述对偶变量更新正则化参数计算公式以更新正则化参数。
55.在一些实施方式中,基于所述正则化增广拉格朗日函数得到更新公式包括:
基于所述正则化增广拉格朗日函数得到原始变量更新公式、半正定矩阵更新公式和对偶变量更新公式。
56.在一些实施方式中,所述深度神经网络模型包括迭代运算单元和正则化参数更新单元;所述迭代运算单元配置用于基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解;所述正则化参数更新单元配置用于基于所述原始变量和所述对偶变量更新所述正则化参数。
57.在一具体实施例中,如图2所示,为深度神经网络模型的结构示意图。深度神经网络模型包括迭代运算单元和正则化参数更新单元,迭代运算单元包括多个迭代运算层和多个迭代结束判断单元,其中,第n次迭代运算层的具体结构如图3所示。图3中,第一线性方程组的具体形式如下:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(12)第二线性方程组的具体形式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(13)第三线性运算的计算方法如公式(9)所示。
58.第一线性方程组是基于公式(7)计算得到的,第二线性方程组均是基于公式(8)计算得到的,迭代结束判断单元的具体计算方法如公式(10)和公式(11)。
59.正则化参数更新单元基于无监督学习策略。首先,随机选取正则化参数λ,ρ∈(0,1),将采样信号以及初始化参数输入上述深度神经网络模型中,迭代运算结束后,且迭代次数未达到预设迭代次数时,进入正则化参数更新单元,按照如下公式计算正则化参数的更新方向:(14)然后,利用adam优化器计算更新后的正则化参数λ,ρ。
60.最后,迭代次数达到预设迭代次数,完成对正则化参数的更新过程。
61.在一具体实施例,结合具体的应用场景对本发明的实施方式进行说明。
62.步骤1:生成输入数据。具体的,采用波达方向估计领域中的实例,采用8阵元均匀线形天线阵列,估计一维角度空间中的3个独立不相关信号,即入射信源的方位角参数,信号振幅在(0,1)范围内随机取值,符合正态分布,信号的相位参数在(1,2π)范围内随机取值,符合指数分布,信噪比固定为10db,天线阵列接收信号符合公式(1)中所给出的数学模型,以此作为本发明中设计深度神经网络模型的一个输入数据,一共生成60000组数据作为深度神经网络的训练集;步骤2:输入网络。具体的,在步骤1中所生成的训练数据集中,每次随机选取200个输入网络,进入迭代运算单元;步骤3:迭代过程停止。具体的,在每一次迭代运算过程之后,根据公式(10)与(11)计算原始残差r与对偶残差μ,并判断当前迭代过程是否达到终止条件;步骤4:更新正则化参数,具体的,在迭代运算过程停止后,本发明中首先根据公式(14)计算负梯度方向,进而得到正则化参数的更新方向,然后通过默认设置的更新步长与adam优化器完成正则化参数的更新,得到下一次网络训练时的正则化参数;步骤5:停止训练。具体的,本发明中设置最大学习过程迭代次数为100,若当前学习迭代未达到100,则对训练数据重新洗牌,重复步骤3与步骤4,若已经达到最大迭代次数,则停止训练,保存当前的网络参数。
63.通过上述方案,所依赖的输入数据少,且提高了重构信号的精度。
64.基于同一发明构思,根据本发明的另一个方面,如图4所示,本发明的实施例还提供了一种信号重构装置,包括:第一计算模块110,所述第一计算模块110配置为基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;第二计算模块120,所述第二计算模块120配置为基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;第三计算模块130,所述第三计算模块130配置为计算所述交替方向乘子算法数学模型的增广拉格朗日函数;构建模块140,所述构建模块140配置为构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
65.在一些实施方式中,所述构建模块配置为构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
66.在一些实施方式中,所述构建模块包括接收子模块和第一计算子模块,其中,所述接收子模块配置为基于所述深度神经网络模型接收采样信号;所述第一计算子模块配置为基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
67.在一些实施方式中,所述第一计算子模块配置为执行以下步骤:将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;基于所述正则化增广拉格朗日函数得到更新公式;
将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
68.基于同一发明构思,根据本发明的另一个方面,如图5所示,本发明的实施例还提供了一种计算机设备30,在该计算机设备30中包括处理器310以及存储器320,存储器320存储有可在处理器上运行的计算机程序321,处理器310执行程序时执行如下的方法的步骤:基于原子范数最小化的稀疏信号重构算法和采样信号数学模型得到原子范数最小化稀疏信号重构算法数学模型;基于交替方向乘子算法和所述原子范数最小化稀疏信号重构数学模型得到交替方向乘子算法数学模型;计算所述交替方向乘子算法数学模型的增广拉格朗日函数;构建深度神经网络模型,并基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解以重构原始信号。
69.其中,存储器作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本技术实施例中的所述信号重构方法对应的程序指令/模块。处理器通过运行存储在存储器中的非易失性软件程序、指令以及模块,从而执行装置的各种功能应用以及数据处理,即实现上述方法实施例的信号重构方法。
70.存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作装置、至少一个功能所需要的应用程序;存储数据区可存储根据装置的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
71.在一些实施方式中,构建深度神经网络模型包括:构建深度神经网络模型,并设置所述深度神经网络模型的初始化参数和正则化参数。
72.在一些实施方式中,基于构建的深度神经网络模型对所述增广拉格朗日函数进行计算得到原始最优解包括:基于所述深度神经网络模型接收采样信号;基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算得到原始最优解。
73.在一些实施方式中,基于所述采样信号、所述初始化参数和所述正则化参数对所述增广拉格朗日函数进行计算以得到原始最优解包括:将所述正则化参数输入到所述增广拉格朗日函数,得到正则化增广拉格朗日函数;基于所述正则化增广拉格朗日函数得到更新公式;将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解。
74.在一些实施方式中,将所述采样信号和所述初始化参数输入到所述更新公式进行迭代计算得到原始最优解包括:
将所述采样信号和所述初始化参数输入到所述更新公式,得到原始变量和对偶变量;判断所述原始变量是否满足原始残差阈值,以及所述对偶变量是否满足对偶残差阈值;响应于所述原始变量满足所述原始残差阈值并且所述对偶变量满足对偶残差阈值,判断迭代次数是否达到预设迭代次数;响应于所述迭代次数达到预设迭代次数,输出原始最优解。
75.基于同一发明构思,根据本发明的另一个方面,如图6所示,本发明的实施例还提供了一种计算机可读存储介质40,计算机可读存储介质40存储有被处理器执行时执行如上方法的计算机程序410。
76.最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(rom)或随机存储记忆体(ram)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
77.本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个装置的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
78.以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
79.应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
80.所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。