一种基于上下文相关多任务深度学习的图像超分辨算法的制作方法

文档序号:16977779发布日期:2019-02-26 19:11阅读:258来源:国知局
一种基于上下文相关多任务深度学习的图像超分辨算法的制作方法
本发明涉及数字图像处理领域,更具体地,涉及一种基于上下文相关多任务深度学习的图像超分辨算法。
背景技术
:图像超分辨是一种通过计算的方式让图像的分辨率得到提升的技术,可以广泛用于视频监控和医学影像分析等领域。单幅图像超分辨算法要解决的问题是,当输入只有单幅图像时,如何提升图像的分辨率。这个问题是图像处理领域中的一个基本问题,也是一个病态问题。传统的解决方案可以划分为基于重建的算法、基于样例的方法和基于插值的方法。基于重建的方法是把高分辨率(hr)图像和低分辨率(lr)图像之间的关系用一个作用于全图的卷积核进行建模,在给的卷积核估计值的情况下通过求解逆问题得到清晰的hr图像。然而,这些方法通常会由于卷积核估计的不准确而造成hr图像中的环状瑕疵。基于样例的方法想通过引入图像自身或者外部图像中的图国际像块作为样例,实现了在高放大倍数情况下的图像超分辨。此类方法在图像恢复时需要利用图像块之间的相似信息,当lr图像中不存在足够的相似图像块时,极有可能会由于图像块的不相似而引入一些不必要的虚假细节。基于插值的方法通过精细设计的插值核函数来提升图像的分辨率。然而,无论是预先定义的核函数(例如双线性插值)还是自适应的核函数,都难以应对图像内容的多种变化。当图像的结构与核函数的定义不一致的时候,会造成图像结构的模糊。近年来,由于深度学习在各种计算机视觉任务重的巨大成功,人们开始将深度神经网络用于图像超分辨问题中。一种常见的做法就是利用全卷积网络建立lr图像和hr图像之间的映射关系,以最小化网络输出图像和真实的hr图像之间的均方误差为目标来训练神经网络。此类方法虽然在图像超分辨的质量上获得了较大的提升,但是也会产生一些结构不一致的瑕疵。其主要原因是以均方误差最小化为代价函数的神经网络难以捕捉人类视觉系统中更敏感的结构变化。近期的图像超分辨算法试图通过引入基于特征的感知误差函数来缓解这一问题,然而此类方法虽然在超分辨图像上得到了更高的视觉感知质量,但是也会引入一些不真实的图像细节。技术实现要素:本发明提供一种基于上下文相关多任务深度学习的图像超分辨算法,该算法可实现用静态低分辨率(lr)图像为输入,恢复出高分辨率(hr)的图像。为了达到上述技术效果,本发明的技术方案如下:一种基于上下文相关多任务深度学习的图像超分辨算法,包括以下步骤:s1:收集图像数据;s2:建立神经网络模型;s3:利用收集图像数据对所建立的神经网络模型进行训练;s4:将训练好的神经网络处理静态低分辨率图像即得到高分辨率的图像。进一步地,所述步骤s1中收集的图像数据训练数据包括高分辨率的图像、该高分辨率的图像对应的边缘图像和其对应的静态低分辨率图像;其中,高分辨率的图像对应的边缘图像是二值图像,由边缘检测算法给出或由人工标记给出;边缘图像中值为0的像素表示非边缘,值为1的像素表示边缘。进一步地,所述步骤s2的神经网络模型包括三个部分组成;第一个部分由4个卷积层组成,其滤波器数量逐层底层,用于提取图像的多尺度特征;第二部分由一个第一反卷积层和两个第一卷积层组成,其中第一反卷积层用于将特征图进行自适应的插值,第一卷积层用于输出期望的特征图和初步的高分辨率的图像;第三部分是由一个第二反卷积层和两个第二卷积层组成,其中第二反卷积层用于将特征图进行自适应的插值,第二卷积层用于输出残差图。进一步地,所述步骤s3的过程如下:s31:从图像数据中筛选出低分辨率图像,高分辨率图像,边缘图像;s32:将低分辨率图像输入基本图像估计网络和边缘估计网络,得到对应的超分辨后的图像结果和边缘图像;s33:将网络输出的结果和高分辨率图像与手工标注边缘图像进行计算,并利用计算结果更新网络的参数;s34:当基本图像估计网络和边缘估计网络收敛以后,将参数固定;s35:利用基本图像估计网络估计残差图,并作为残差估计网络的目标更新残差估计网络参数;s36:当残差估计网络收敛以后,将参数固定;s37:将残差网络输出与基本图像估计网络输出融合,得到高分辨率图像。进一步地,所述步骤s4中将训练好的神经网络用于处理新的输入静态低分辨率图像时,输入的静态低分辨率图像先经过图像裁剪或者下采样预处理操作,使得输入的静态低分辨率图像的分辨率与网络训练时所采用的lr图像分辨率一致;新输入的静态低分辨率图像输入训练好的神经网络之后,经过卷积和加权平均等各种操作,会输出高分辨率的边缘图、初步的高分辨率的图像和高分辨率的图像的残差图,其中初步的高分辨率的图像和高分辨率的图像的残差图通过线性叠加的方式进行融合,得到最终的高分辨率的图像。与现有技术相比,本发明技术方案的有益效果是:本发明设计了三个深度神经网络,分别用于捕捉图像的基本信息、主要边缘信息和微小细节信息,然后在一个多任务学习的框架中对这些神经网络进行上下文相关连接与统一训练。给定输入的低分辨率图像,训练好的神经网络将分别输出基本图像、主要边缘图像和微小细节图像,最终的高分辨率图像由基本图像和微小细节图像融合而成;该算法可以仅用静态低分辨率(lr)图像为输入,恢复出高分辨率(hr)的图像。并且,所恢复出来的hr图像的结构得到了很好的保持,能尽可能多地恢复出理想hr图像中的结构信息。附图说明图1为本发明实施例中神经网络结构示意图;图2为本发明和srcnn、scn、shcnn方法在“蝴蝶”图像上的超分辨视觉效果对比;其中,图2(a)位srcnn算法的效果图,图2(b)为scn算法的效果图,图2(c)为shcnn算法的效果图,图2(d)为本发明算法的效果图,图2(e)为理想效果图。具体实施方式附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。下面结合附图和实施例对本发明的技术方案做进一步的说明。实施例1一种用于静态图像超分辨的上下文相关多任务深度学习方法,包括以下步骤:s1:收集图像数据;s2:建立神经网络模型;s3:利用收集图像数据对所建立的神经网络模型进行训练;s4:将训练好的神经网络处理静态低分辨率图像即得到高分辨率的图像。步骤s1中,训练数据由三部分组成,即hr图像、hr图像对应的边缘图像和hr图像对应的lr图像。其中,hr图像对应的边缘图像是二值图像,可以由边缘检测算法给出,也可以由人工标记给出。边缘图像中值为0的像素表示非边缘,值为1的像素表示边缘。假设lr图像的分辨率是h×w,hr图像的分辨率是h×w,则训练好的网络只可用于将分辨率为h×w的输入lr图像的分辨率提升至h×w。进一步地,所述步骤s2中,神经网络模型的总体结构如附图1所示,主要由三个部分组成。第一个部分由4个卷积层组成,其滤波器数量逐层底层,主要用于提取图像的多尺度特征;第二部分由一个反卷积层和两个卷积层组成,其中反卷积层用于将特征图进行自适应的插值,卷积层用于输出期望的特征图和初步的hr图;第三部分也是由一个反卷积层和两个卷积层组成,其中反卷积层用于将特征图进行自适应的插值,卷积层用于输出残差图。第二部分的网络同时输出边缘图和初步的hr图,这样的设计可以在初步的hr图加入上下文相关的边缘信息,有助于获得保持边缘结构的初步hr图。而第三部分残差上下文相关网络(rcn)的目标是输出初步hr图与理想hr图之间的残差,所得到的残差将与初步的hr图进行融合,得到最终的hr图。由于所设计的神经网络有多个输出,因此可以称之为一个多任务的神经网络。以将128×128的输入lr图像分辨率提升至370×370为例,各层网络的具体设置如下表所示。注意,当输入和输出图像分辨率改变时,只需要修改反卷积层的步长(stride)即可。表1:所提神经网络各层的参数设置层类型卷积卷积卷积卷积卷积反卷积卷积卷积反卷积卷积滤波器尺寸5×53×33×31×13×311×113×33×311×113×3滤波器数量1632128812821281特征图边长128124124124372372370372372370参数数量400460836864102486477442168647744108步骤s3中,利用s1中的训练数据对所建立的神经网络模型进行训练的伪代码如下:用w来表示所设计网络的所有参数。由于网络结构的特性,我们可以将其划分为四个不重叠的部分分别进行更新,即w={ws,wh,wb,wd},其中ws是反卷积层的参数,用于内容自适应的图像插值,wd代表rcn的网络参数,wh代表用于产生初步hr图的网络参数,wb代表用于产生边缘图的网络参数,fh(·)表示用网络重建初步hr图的非线性过程,fb(·)表示用网络产生边缘图的非线性过程,fd(·)表示用网络产生初步hr图和理想hr图之间的残差的过程。算法的参数t为正整数,用于控制从训练集中随机选取子集的次数。步骤s4中,将训练好的神经网络用于处理新的输入lr图像时,要求输入的lr图像要先经过图像裁剪或者下采样等预处理操作,使得输入的lr图像分辨率与网络训练时所采用的lr图像分辨率一致。lr图像输入本发明所设计的神经网络之后,经过卷积和加权平均等各种操作,会输出hr边缘图ib=fb(ws,wb,i'li)、初步的hr图像ih=fh(ws,wh,i'li)和hr残差图id=fd(ws,wd,i'li),其中ih和id将通过线性叠加的方式进行融合,得到最终的hr图像。以将低分辨率的图像放大3倍为例,并和其他代表性的基于深度神经网络的方法(包括srcnn、scn和shcnn)在标准数据集bsd500、set5和set14上进行对比:1)、将包含500幅图像的bsd500数据集划分为包含300幅图像的训练集bsd300和包含200幅图像的测试集bsd200,将bsd200中的hr图像进行尺度为1/3的下采样,得到对应的lr图像。200幅lr图像、200幅hr图像和对应的200张hr边缘图共同构成了训练数据集。注意其他方法可能不需要hr边缘图作为训练数据。2)、利用上述训练样本,在所提的上下文相关多任务学习框架下对所提的深度神经网络进行训练,网络参数设计如表1所示。3)、利用训练好的网络,根据步骤s4对输入的图像进行超分辨实验,分别在set5、set14和bsd200数据集上的平均量化结果如表2所示,视觉对比效果如附图2所示。相同或相似的标号对应相同或相似的部件;附图中描述位置关系的用于仅用于示例性说明,不能理解为对本专利的限制;显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1