一种基于深度学习网络的激光光谱图像压缩方法及系统与流程

文档序号:22506549发布日期:2020-10-13 09:44阅读:150来源:国知局
一种基于深度学习网络的激光光谱图像压缩方法及系统与流程

本发明涉及图像压缩技术领域,特别是涉及一种基于深度学习网络的激光光谱图像压缩方法及系统。



背景技术:

激光光谱图像压缩技术,作为遥感数据储存与传输的关键技术,从信息论的角度来看,大多数压缩技术都是经过消除数据冗余来完成图像压缩的目的,然而不同种类的数据,其数据冗余的特性也都是各不相同的。一般情况下认为激光光谱图像数据含有两种冗余,谱间冗余和空间冗余。对激光光谱图像压缩的研究大体是把二维转换压缩方法扩展至三维数据里,然后在消除二维空间冗余的同时消除谱间冗余。

针对上述问题,相关研究学者提出了一些解决方法,其中较为常用的方法有压缩光场重建与深度估计方法和基于视点相关性的光场图像压缩算法。前者首先通过感知重建算法构建一种视角数据,进而得到数据子孔径,然后使用角度像素块散焦线性与匹配线索估算出原始图像的置信度与深度。再估算图像的边缘信息,最后将上述得到的资源信息进行融合,进而得到最终深度,对图像进行压缩训练,完成对图像的压缩。但是该方法并没有消除冗余的步骤,图像压缩效率不高。后者采用线性加权算法来提高图像编码块的预测精度,并运用失真优化方法选取最优的编码块尺寸,实验结果表明,该方法能够实现对激光光谱图像的压缩,但是存在编码增益状态不佳的问题。上述方法中存在压缩效率低、编码增益状态不佳的问题,都会影响压缩方法的性能。



技术实现要素:

本发明的目的是提供一种编码增益状态佳、图像压缩效率高的基于深度学习网络的激光光谱图像压缩方法及系统。

为实现上述目的,本发明提供了如下方案:

一种基于深度学习网络的激光光谱图像压缩方法,包括:

获取待压缩激光光谱图像;

采用dpcm预测算法消除所述待压缩激光光谱图像的谱间冗余,得到第一光谱图像;

采用spiht算法消除所述第一光谱图像中的空间冗余,得到第二光谱图像;

采用训练好的卷积神经网络对所述第二光谱图像进行压缩,得到压缩图像。

可选的,在所述采用训练好的卷积神经网络对所述第二光谱图像进行压缩之前,还包括:

对卷积神经网络进行训练,得到训练好的卷积神经网络。

可选的,所述对卷积神经网络进行训练,具体包括:

以所述第二光谱图像为输入,以基于失真度的反射函数为调节目标,对卷积神经网络进行训练。

本发明还提供了一种基于深度学习网络的激光光谱图像压缩系统,包括:

待压缩激光光谱图像获取模块,用于获取待压缩激光光谱图像;

谱间冗余消除模块,用于采用dpcm预测算法消除所述待压缩激光光谱图像的谱间冗余,得到第一光谱图像;

空间冗余消除模块,用于采用spiht算法消除所述第一光谱图像中的空间冗余,得到第二光谱图像;

图像压缩模块,用于采用训练好的卷积神经网络对所述第二光谱图像进行压缩,得到压缩图像。

可选的,所述系统还包括:

卷积神经网络训练模块,用于对卷积神经网络进行训练,得到训练好的卷积神经网络。

可选的,所述卷积神经网络训练模块,具体包括:

卷积神经网络训练单元,用于以所述第二光谱图像为输入,以基于失真度的反射函数为调节目标,对卷积神经网络进行训练。

根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供的基于深度学习网络的激光光谱图像压缩方法及系统针对传统方法压缩图像时,出现的编码增益状态不佳与压缩效率较低的问题,采用dpcm预测算法消除激光光谱图像的谱间冗余,再利用spiht算法消除剩下的空间冗余,进而使图像的残差值缩小。在此基础上使用深度学习网络中的卷积神经网络把多种卷积层与非线性激活层叠加在一起来完成对复杂反射函数的处理,进而实现大量数据训练。最后经过多层卷积的感受野对数据进行压缩,从而实现对激光光谱图像的压缩。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例1提供的基于深度学习网络的激光光谱图像压缩方法流程图;

图2为本发明实施例1提供的预测编码算法的原理图;

图3为本发明实施例1提供的dpcm算法的流程图;

图4为本发明实施例1提供的自编码网络结构示意图;

图5为本发明实施例2提供的基于深度学习网络的激光光谱图像压缩系统结构示意图。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。

实施例1

参见图1,本实施例提供的基于深度学习网络的激光光谱图像压缩方法包括以下步骤:

步骤101:获取待压缩激光光谱图像;

步骤102:采用dpcm预测算法消除待压缩激光光谱图像的谱间冗余,得到第一光谱图像;

步骤103:采用spiht算法消除第一光谱图像中的空间冗余,得到第二光谱图像;

步骤104:采用训练好的卷积神经网络对第二光谱图像进行压缩,得到压缩图像。

其中,在步骤104之前,还需要对卷积神经网络进行训练,以得到训练好的卷积神经网络。在卷积神经网络的训练中,以第二光谱图像为输入,把多种卷积层与非线性激活层叠加在一起来完成对复杂反射函数的处理,实现大量数据训练,最后经过多层卷积的感受野对数据进行压缩,从而实现对激光光谱图像的压缩。其中反射函数为与失真度相关的函数,比如,可以是表征失真度在设定范围内的函数,以实现自动的对图像的压缩比进行调节,不用人工干涉算法,就能将图像的失真度降到最低。

本实施例中的dpcm预测算法是激光光谱图像压缩方法中较为经典的方法,其中包含差分信号δn、离散输入信号sn与预期输出的计算值其大致的思想是:假如δn的值远小于sn,那么就利用δn来代表sn,这样就能够使用最少的比特数代表初始信号,继而使后期的压缩效果提升。因为激光光谱图像的谱间分辨率越高,临近波段的关联性就越大,并且不同波段成像属于同一地物,其含有同等的物理构架,因此可以使用dpcm算法消除临近两波段图像的谱间冗余。

拟定f代表预测的波段图像,g代表被预测波段图像。为了能够将预测的残差值缩小,拟定一阶线性最优预测器:

式中,f(i,j)代表图像f的第i行第j列的图像像素灰度值,代表通过图像f预测的图像g的第i行第j列图像像素灰度值。a,b代表利用图像f预测图像g的灰度值的预测系数。

拟定激光光谱图像的尺寸是m×n,m代表图像的长,n代表图像的宽,那么整幅图像的预测误差平均值即:

如果想要将预测均方差到达最小,那么就一定要满足:

式中,代表原始均方差。最后根据公式(1)、(2)、(3)计算出a与b的值:

式中,μf代表图像的平均灰度值,上述结果降低了谱间冗余。

如图2所示,预测编码方案的算法中心思想是:根据采样信号的前面一个信号或多个信号的估值来预测下一个信号,然后对实际信息值及预测值的差(即预测误差peorror)进行编码。在预测编码中,通过己经发送或得到的信息预测未来的值,然后编码。由于这一步在空间或图像域完成,基于此它很容易实施并适应局部的图像特性。一个预测编码的良好实例是差值编码调制方案(dpcm)。

如图3所示,dpcm的流程图:encoder图中输入信号xn是某一像素点的实际灰度值,pn是对该像素点的预测值,在本实验中就是与它相邻的前一个像素点的重建值。dn是预测误差。^(dn)是量化预测误差,^(xn)=量化预测误差^(dn)+预测灰度值pn,得到当前像素点的重建值,作为下一个像素点的预测值。预测器的输入是已经解码以后的样本,因为在解码端只能得到存在误差的样本。由图3可见,encoder中包含了一个decoder。

使用dpcm消除残差图像的谱间冗余后依然存在很多空间冗余,因此,还需要通过spiht算法消除剩下的空间冗余。该算法的优点是,能够将后期的压缩效率达到最大化。该算法使用一种渐进的方式来对传输方式进行编码,使用目标的比特率与失真率通过截断对码流进行处理,所以本发明对预测后的残差图像使用spiht算法进行编码。在上述方法中,如何匹配每一种波段的预测参数进行spiht编码所需要的码长是非常关键的。假如匹配的不合理,就容易出现以下几种问题:信息量较大的波段不能获得高质量的重建效果;假如用来预测的波段质量较差,可能会导致被预测的波段误差率也随之增加。因此本发明通过预分配码流长度的方法来对这些问题进行处理,使得重建图像在同等压缩比下,得到更高的质量。匹配码流长度的大体基础有以下两种原则:该波段图像的本发明本身含有大量的信息;该波段与其他波段的关联性较小。

图像所包含信息量的大小能够通过该图像的标准差来判断,标准差越大,就说明该图像所包含的信息量越大。对离散的激光光谱图像而言,图像f标准差的定义是:

根据每个波段码流长度分配理念与标准差在外光谱图像里的含义,本发明凭借spiht编码预分配码流长度算法对外光谱图像进行处理。

拟定外光谱图像中含有l种波段,通过xi代表第i种波段的图像。

(1)估算σ(x1),令σ(ε1)=σ(x1);

(2)将xi当做预测波段,xi+1代表被预测波段,使用式(4),计算预测系数ai+1,bi+1与预测残差图像εi+1,并估算σ(εi+1);

(3)在i=i+1的条件下,假如i小于波段总数l,返回步骤(2);

(4)码流分配权重每一种波段的码流长度是ri=wirt,其中,rt代表拟定的总编码长度。

通过上述算法可以看出,本发明使用的码流分配方法得出临近两波段预测残差图像的标准差σ(εi)。σ(εi)映射了预测残差图像εi的信息量大小,并且εi还是两种临近波段的预测残差图像,其映射了临近两种波段之间的关联性大小,因此通过σ(εi)决定每个波段码流分配的权重是适合的。

在图像谱间冗余消除的基础上,该步骤拟定了预测激光光谱图像的标准差分配码流方法的编解码算法,其算法如下所示:

(1)通过上述方法分配每一种波段的码流尺寸;

(2)凭借分配的码流,对第一波段x1进行spiht编码,随后对该码流进行解码,进而获得解码图像s(x1);

(3)将s(x1)当做预测波段,xi+1代表被预测的波段,计算预测系数ai+1,bi+1与预测激光光谱图像εi+1;

(4)凭借分配的码流,对图像εi+1进行spiht编码;

(5)解码获得s(εi+1)=ai+1s(x1)+bi+1+s(εi+1);

(6)假如i等于波段总数l,那么算法完成,反之,则返回(2)。

在上述流程中,预测系数ai,bi(i=2,…,l)与码流分配权重wi(i=1,…,l)一定要传输至解码段。可是因为其所占用的字节数较小,因此其对图像压缩质量的影响也非常小。

因为本发明算法在解码端获得的图像与初始图像是存在误差的,因此不能够直接使用初始图像当做预测波段,所以在编码的流程里,对预测图像进行编码的同时,还需要进行解码,把其当做后一种波段的预测波段图像,这样就可以抑制预测误差,使得后续的压缩图像更加贴近原始图像。

依据最终获取的图像冗余消除结果,本发明使用深度学习方法中的卷积神经网络对图像进行压缩。卷积神经网络模仿生物神经局部感知的特性,利用卷积核参数与局部感受野对网络进行处理,进而减少网络参数的总量和估算参数的复杂程度。卷积神经网络能够直接把图像当做网络进行输入,并能够通过监督的方式训练网络进行端对端运作,进而避免了传统方法需要拟定特征提取与挑选适合样本的流程。

卷积神经网络可以实现把输入转换为输出,其大体的思想就是通过卷积神经网络将非线性激活层和多层卷积层组合在一起,从而完成对反射函数的处理,使用这种反射可以对大量的数据进行训练,同时不会要求过多的先验知识。卷积神经网络针对激光光谱图像拟定了特殊的多层感知机,经过卷积神经网络收集的物体特征在图像的角度、缩放与位移等方面具有不变性。

二维卷积的运作如下列公式所示:

式中,i代表被卷积的矩阵,k代表卷积核。

对激光光谱图像进行卷积时,通过一种3*3的卷积核矩阵对图像进行遍历,把卷积核矩阵的元素和图像相应的元素凭借式(6)进行运作,获得相应的元素卷积卷积层中具有padding参数与步进参数,这两种参数为卷积层结构里的基本参数。

(1)步进

卷积层的步进即使用卷积对图像进行处理的时候,图像中卷积的运动尺寸。卷积核的步进是m时,图像里卷积核会出现运动,在估算当前图像块后,会向着右侧运动m个像素然后再去估算,在卷积核的步进和大小相同时,图像中卷积的遍历状态是无重叠的,卷积核的步进一般都小于或等于卷积核的尺寸,如果卷积核的步进大于卷积核的尺寸会出现图像信息缺失的问题。

(2)padding

针对图像的复原问题,特别是图像的压缩问题,输出图像尺寸和输入图像尺寸相同,此时只利用卷积的方法,不会得到与输入图像尺寸同等的输出结果,因此要对原始图像进行补零。

卷积完成的输出图像大小是由输入图像卷积核的padding、步进、储存与尺寸来决定的,其代表式如下所示:

式中,sizeinput代表输入图像的尺寸,sizekernel代表卷积核的尺寸,padding代表图像的边缘补零圈数,stride代表卷积核的步进。

感受野即一种图像和神经节点直接或间接的连接区域,在这个区域里的像素点都会对神经元节点产生影响。如,对于一层卷积核尺寸是3*3的卷积构架,每一种卷积神经元和图像3*3的区域相连,因此针对该构架,其感受野的尺寸是3*3。

具体迭代估算网络的最后一层感受野,公式如下所示:

式中,rf代表目前层感受野,rf代表目前层上一层的感受野,stride代表目前层卷积核的步进,fsizei代表目前层的卷积核尺寸。算法迭代的停止条件是rf1=fsizei,就是第一层感受野的大小是第一层卷积核的大小。

在神经网络里,如果网络输入和输出同等,那么网络的目的就是恒等反射,所以这种网络被叫做自编码器。比较简易的自编码网络存在三层神经元,大致如图4所示。其输入层到中间层都是编码图像内的阶段,可以把图像数据转换至特征空间里,而特征解码位置阶段就是中间层至输出层,在像素空间中传输特征空间内的图像。以此为基础能够计算中间层的神经元数量,从而完成对图形压缩的比率调节,再经过网络训练把图像的失真度降到最低,进而实现对激光光谱图像的压缩。

实施例2

参见图5,本实施例提供的基于深度学习网络的激光光谱图像压缩系统包括:

待压缩激光光谱图像获取模块501,用于获取待压缩激光光谱图像;

谱间冗余消除模块502,用于采用dpcm预测算法消除所述待压缩激光光谱图像的谱间冗余,得到第一光谱图像;

空间冗余消除模块503,用于采用spiht算法消除所述第一光谱图像中的空间冗余,得到第二光谱图像;

卷积神经网络训练模块504,用于对卷积神经网络进行训练,得到训练好的卷积神经网络。

图像压缩模块505,用于采用训练好的卷积神经网络对所述第二光谱图像进行压缩,得到压缩图像。具体包括:

卷积神经网络训练单元,用于以所述第二光谱图像为输入,以基于失真度的反射函数为调节目标,对卷积神经网络进行训练。

为验证本发明提出方法是否具有有效性,下面进行实验验证。实验环境为intel(r)core(tm)i5-3470cpu,3.20ghz,8gb内存的pc,通过matlab7.6编程实现,libsvm为支持向量机软件。以编码增益状态和图像压缩效率为实验指标对本发明方法与传统方法进行对比。表1和表2为本发明方法下激光光谱图像压缩编码的增益状态。

表1全帧编码构架下实验结果

表2ippp帧编码构架下实验结果

如表1所示,针对当前比较优越的hevc编码标准,本发明方法的压缩编码率同样能够大幅度节省。虽然在图像内容变化强烈时,本发明的编码率有所下降,例如pairs序列,但是仍然具有较强的编码增益状态。此外,对于帧内编码构架,帧间编码的码率节省会相较较少。如表2所示,本发明方法在两种平均码率节省分别是27.01%与2.36%。

通过上述实验能够看出,通过本发明方法压缩激光光谱图像的两种编码增益状态都非常高,而编码率的增益状态会直接映射出激光光谱图像的压缩效果,所以也可以通过另一个角度证明,本发明方法在激光光谱图像压缩上的实用性。可见,与传统方法对比,本发明的编码增益状态更佳,且图像压缩效率较高,能够有效对激光光谱图像进行压缩,具有较高的应用价值。

本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。

本发明中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1