![图像去噪方法、装置、车辆及存储介质与流程](https://img.xjishu.com/img/zl/2022/9/27/bgxz7bd9j.jpg)
1.本技术属于图像处理技术领域,尤其涉及一种图像去噪方法、装置、车辆及存储介质。
背景技术:2.随着智能座舱技术的发展,搭载驾驶员监控系统(driver monitor system,dms)系统的车载摄像头已成为座舱智能化的标志,它不仅可以识别驾驶员身份,判断驾驶员注意力是否集中,甚至通过面部表情来推断驾驶员的情绪状态,帮助驾驶员安全出行。然而夜间行车过程中噪声会降低摄像头的画面质量,导致dms系统性能显著下降,给驾驶员夜间行车带来诸多不便。
技术实现要素:3.本技术实施例提供了一种图像去噪方法、装置、车辆及存储介质,可以去除车载图像的噪声,提升图像的画面质量,进而提升行车安全性。
4.第一方面,本技术实施例提供了一种图像去噪方法,包括:
5.获取训练数据集,其中,所述训练数据集包括多个数据对,每个所述数据对包括n张第一视频图像和n张第二视频图像,所述第一视频图像对应的车内的光线亮度值小于所述第二视频图像对应的车内的光线亮度值,所述第一视频图像和所述第二视频图像各自对应同一车内的不同拍摄对象,n为正整数;
6.基于所述训练数据集对待训练的去噪网络模型进行迭代训练,得到训练后的去噪网络模型;
7.基于所述训练后的去噪网络模型对第三视频图像进行去噪处理,得到去噪处理后的第四视频图像。
8.第二方面,本技术实施例提供了一种图像去噪装置,包括:
9.获取模块,用于获取训练数据集,其中,所述训练数据集包括多个数据对,每个所述数据对包括n张第一视频图像和n张第二视频图像,所述第一视频图像对应的车内的光线亮度值小于所述第二视频图像对应的车内的光线亮度值,所述第一视频图像和所述第二视频图像各自对应同一车内的不同拍摄对象,n为正整数;
10.训练模块,用于基于所述训练数据集对待训练的去噪网络模型进行迭代训练,得到训练后的去噪网络模型;
11.去噪处理模块,用于基于所述训练后的去噪网络模型对第三视频图像进行去噪处理,得到去噪处理后的第四视频图像。
12.第三方面,本技术实施例提供了一种车辆,包括终端设备,该终端设备包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述第一方面中任一项所述的图像去噪方法。
13.第四方面,本技术实施例提供了一种计算机可读存储介质,所述计算机可读存储
介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述第一方面中任一项所述的图像去噪方法。
14.第五方面,本技术实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的图像去噪方法。
15.本技术第一方面实施例与现有技术相比存在的有益效果是:通过获取训练数据集,其中,训练数据集包括多个数据对,每个数据对包括n张第一视频图像和n张第二视频图像,第一视频图像对应的车内的光线亮度值小于第二视频图像对应的车内的光线亮度值,第一视频图像和第二视频图像各自对应同一车内的不同拍摄对象,n为正整数;基于训练数据集对待训练的去噪网络模型进行迭代训练,得到训练后的去噪网络模型;基于训练后的去噪网络模型对第三视频图像进行去噪处理,得到去噪处理后的第四视频图像,如此,利用采集难度低的非配对的训练数据集训练出的去噪网络模型,可以去除车载图像的噪声,提升图像的画面质量,进而提升行车安全性。
16.可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
17.为了更清楚地说明本技术实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本技术的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
18.图1是本技术一实施例提供的图像去噪方法的流程示意图;
19.图2是图1中步骤102的具体实施步骤的示意图;
20.图3是本技术一实施例提供的图像去噪装置的结构示意图;
21.图4是本技术一实施例提供的车辆中的终端设备的结构示意图。
具体实施方式
22.以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本技术实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本技术。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本技术的描述。
23.应当理解,当在本技术说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
24.如在本技术说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当
……
时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
[0025]
另外,在本技术说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0026]
在本技术说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本技术的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
[0027]
图1示出了本技术提供的图像去噪方法的示意性流程图,参照图1,对该图像去噪方法的详述如下:
[0028]
s101,获取训练数据集,其中,训练数据集包括多个数据对,每个数据对包括n张第一视频图像和n张第二视频图像,第一视频图像对应的车内的光线亮度值小于第二视频图像对应的车内的光线亮度值,第一视频图像和第二视频图像各自对应同一车内的不同拍摄对象,n为正整数。
[0029]
这里,可通过采集设备获取训练数据集。其中采集设备包括dms摄像头和乘客监控系统(occupancy monitoring system,oms)摄像头,dms摄像头和oms摄像头均用于采集车内的视频图像。
[0030]
在一种可能的实现方式中,步骤s101的实现过程可以包括:
[0031]
s1011,采集满足第一条件时车内的视频图像,将满足第一条件时车内的视频图像作为第一视频图像,第一条件为光线亮度值小于第二预设阈值。
[0032]
这里,第一条件为光线亮度值小于第二预设阈值说明车内拍摄环境对应的光线条件较差。比如车辆行驶在夜间、隧道中或者地下车库中。其中,第一视频图像为含噪图像。
[0033]
s1012,采集满足第二条件时车内的视频图像,将满足第二条件时车内的视频图像作为第二视频图像,第二条件为光线亮度值大于或者等于第二预设阈值。
[0034]
这里,第二条件为光线亮度值大于或者等于第二预设阈值说明车内拍摄环境对应的光线条件较好。比如车辆行驶在白天。其中,第二视频图像为无噪图像。
[0035]
s1013,基于第一视频图像和第二视频图像构建训练数据集。
[0036]
需要说明的是,摄像头采集的每张第一视频图像均有一张与其对应的第二视频图像,即第一视频图像和第二视频图像各自对应同一车内的不同拍摄对象。也就是说,第一视频图像和与该第一视频图像对应的第二视频图像,二者的图像采集环境是相关联的,却是非配对的。即两张视频图像各自对应的拍摄内容不需要完全一致。
[0037]
由上述说明可知,本技术实施例中的训练数据集为非配对的数据集,而非配对的数据集采集难度低,较易获得,一定程度上降低了去噪网络模型训练的难度。
[0038]
本步骤可具体包括:将采集的第一视频图像和第二视频图像分为多个数据对,每个数据对包括n张第一视频图像和n张第二视频图像。需要说明的是,n张第一视频图像中每张第一视频图像与该数据对中的一张第二视频图像对应。不同的第一视频图像可以是同一车内的视频图像,也可以是不同车内的视频图像。
[0039]
这里,为了丰富采集到的数据多样性,摄像头的摆放位置可以有多个位置,如a柱、中控台、转向管以及后视镜等区域,此外,车内被拍摄的人员,如车内驾驶员和乘客,他们的年龄和性别也需要具有多样性。
[0040]
s102,基于训练数据集对待训练的去噪网络模型进行迭代训练,得到训练后的去
噪网络模型。
[0041]
可选的,待训练的去噪网络模型为生成式对抗网络(generative adversarial networks,gan)模型。gan模型包括生成网络和判别网络。
[0042]
基于训练数据集对待训练的去噪网络模型进行迭代训练大致的过程是:对没有经过训练的生成网络和判别网络一起对抗训练,利用数据对中的第一视频图像输入生成网络产生一张随机视频图像去欺骗判别网络;之后,判别网络判断这张随机视频图像的真假,最终在这两类网络训练的过程中,两类网络的能力越来越强,最终达到稳态,将达到稳态后的生成网络确定为训练后的去噪网络模型,具体过程详见实施例一。
[0043]
s103,基于训练后的去噪网络模型对第三视频图像进行去噪处理,得到去噪处理后的第四视频图像。
[0044]
在一种可能的实现方式中,步骤s103的实现过程可以包括:
[0045]
s1031,获取车辆内部的第三视频图像。
[0046]
这里,可通过安装在车辆上的摄像头比如dms摄像头和oms摄像头获取车辆内部的第三视频图像。
[0047]
s1032,基于第三视频图像中每个像素点的亮度值,计算得到第三视频图像对应的平均光线亮度值。
[0048]
具体的,采用如下公式(1)计算得到第三视频图像对应的平均光线亮度值:
[0049][0050]
其中,(x,y)表示第三视频图像中像素点的位置坐标,lum(x,y)表示第三视频图像中像素点的亮度值,n表示第三视频图像的像素点的总数,δ为预设参数值。
[0051]
s1033,若平均光线亮度值小于第一预设阈值,则基于训练后的去噪网络模型对第三视频图像进行去噪处理,得到去噪处理后的第四视频图像。
[0052]
这里,若平均光线亮度值小于第一预设阈值,说明第三视频图像所对应的车内拍摄环境的光线条件较差,第三视频图像为含噪视频图像,需要进行去噪处理,即执行将第三视频图像输入训练后的去噪网络模型进行去噪处理,输出去噪处理后的第四视频图像,其中第四视频图像是去除噪声后的清晰的图像,从而行车过程中图像的画面质量得到了提升,进而提升行车安全性。
[0053]
实施例一
[0054]
如图2所示,在一种可能的实现方式中,步骤s102的实现过程可以包括:
[0055]
s1021,将数据对中的第一视频图像输入去噪网络模型,得到第五视频图像。
[0056]
本步骤可具体包括:提取数据对中的第一视频图像对应的yuv空间图像的y分量;将第一视频图像对应的y分量输入去噪网络模型,得到第五视频图像。
[0057]
可选的,去噪网络模型为生成网络。
[0058]
需要说明的是,图像的主要结构信息均在y分量上,利用图像对应的y分量进行模型训练,一方面可以降低运算量,另一方面可以提高去噪网络模型的鲁棒性,使其不受图像的颜色空间的影响。
[0059]
需要说明的是,第一视频图像为含噪图像。开始训练时生成网络的网络参数是随机的网络参数,数据对中的n张第一视频图像输入生成网络后得到的n张第五视频图像是n
张随机视频图像。
[0060]
可选的,生成网络的网络结构采用u-net的网络结构,该结构包括m个卷积模块,每个卷积模块包含卷积层、激活函数和归一化层,其中卷积层为多个。其中,每个卷积模块是一个残差结构,分为下采样阶段和上采样阶段。其中,在上采样阶段使用双线性上采样与卷积层相结合,替代了传统的反卷积操作。
[0061]
比如,u-net的网络结构可包括8个卷积模块,每个卷积模块包含2个3
×
3的卷积层、leakyrelu激活函数以及归一化层。
[0062]
s1022,将第五视频图像输入全局判别网络,得到第一判别结果。
[0063]
本步骤中,将第五视频图像输入全局判别网络,其目的是为了判别第五视频图像的真假,输出的判别结果一般用0或1表示。其中,0表示判别结果为假,1表示判别结果为真。
[0064]
s1023,将数据对中的第二视频图像输入全局判别网络,得到第二判别结果。
[0065]
本步骤可具体包括:提取数据对中的第二视频图像对应的yuv空间图像的y分量;将第二视频图像对应的y分量输入全局判别网络,得到第二判别结果。
[0066]
这里,将第二视频图像,即真实的无噪图像,输入全局判别网络,其目的是为了判别第二视频图像的真假。
[0067]
s1024,将第五视频图像的局部图像输入局部判别网络,得到第三判别结果。
[0068]
这里,将每张第五视频图像划分为多个局部图像输入局部判别网络,用于判别第五视频图像中局部图像的真假,从而更加精细化的引导后续生成网络的训练。
[0069]
需要说明的是,对于判别网络而言,本技术实施例中具体指的是全局判别网络和局部判别网络,对于数据对中的第二视频图像,即真实的无噪图像,判别网络要尽可能判别正确输出值1,而对于第五视频图像,也就是数据对中的第一视频图像(含噪图像)经过生成网络得到的第五视频图像(假的去噪图像),判别网络要尽可能判别错误输出值0。而对于生成网络则尽可能的欺骗判别网络。两种网络相互对抗,不断调整参数,最终目的是使判别网络(全局判别网络和局部判别网络)无法判断生成网络的输出结果是否真实。
[0070]
在本技术实施例中,两种网络相互对抗,不断调整参数,具体指的是不断调整全局判别网络、局部判别网络和生成网络的网络参数。
[0071]
首先固定生成网络的网络参数不变,多次更新全局判别网络的网络参数和局部判别网络的网络参数,以使全局判别网络和局部判别网络具有较好的判别能力;之后,固定全局判别网络的网络参数和局部判别网络的网络参数不变,多次更新生成网络的网络参数。
[0072]
本实现方式中的全局判别网络和局部判别网络在此之前,其各自的网络参数已经通过遍历训练数据集中的一些数据对进行了多次更新,本实现方式具体阐述的是固定全局判别网络的网络参数和局部判别网络的网络参数不变,基于未使用的一些数据对多次更新生成网络的网络参数的过程。
[0073]
下面以全局判别网络为例,阐述本实现方式之前全局判别网络的网络参数的更新过程。
[0074]
a1:将第一数据对中的n张第一视频图像输入生成网络g,得到n张随机视频图像xf。
[0075]
a2:将n张随机视频图像xf输入全局判别网络d1,得到n个判别结果d1(xf)。
[0076]
a3:将第一数据对中的n张第二视频图像xr输入全局判别网络d1,得到n个判别结果
d1(xr)。
[0077]
a4:根据n个判别结果d1(xf)和n个判别结果d1(xr)计算得到全局判别网络d1的损失值
[0078]
具体的,采用如下公式(2)、公式(3)和公式(4)计算得到全局判别网络d1的损失值
[0079][0080][0081][0082]
其中,dc(xr,xf)用于表示全局判别器对第二视频图像的判别能力,dc(xr,xf)的取值越大表明第二视频图像判别为真图像的概率越大;dc(xf,xr)用于表示全局判别器对随机视频图像的判别能力,dc(xf,xr)的取值越大表明随机视频图像判别为真图像的概率越大。
[0083]
表示n个判别结果d1(xf)的期望值,σ(d1(xr))表示n个判别结果d1(xr)的激活函数值;表示n个判别结果d1(xr)的期望值,σ(d1(xf))表示n个判别结果d1(xf)的激活函数值。
[0084]
a5:基于全局判别网络d1的损失值更新全局判别网络d1的网络参数,得到参数更新后的全局判别网络d1。
[0085]
上述过程为全局判别网络d1的一次网络参数更新过程。之后,将a1步骤中的第一数据对替换为第二数据对,重复执行上述的步骤,以实现对参数更新后的全局判别网络d1的再一次网络参数更新,直至执行完第一预设次数的网络参数更新。
[0086]
需要说明的是,局部判别网络d2的网络参数更新过程与上述全局判别网络的网络参数更新过程大致相同,不同之处在于参数更新所采用的数据对不同、输入至局部判别网络d2的是视频图像的局部图像,且计算局部判别网络d2的损失值所采用的损失函数不同。具体的,计算局部判别网络d2的损失值所采用的损失函数如下述公式(5):
[0087][0088]
其中,d2(xr)表示数据对中的第二视频图像的局部图像输入局部判别网络d2后得到的判别结果,d2(xf)表示随机视频图像的局部图像输入局部判别网络d2后得到的判别结果,该随机视频图像为数据对中的第一视频图像经过生成网络后得到的视频图像。
[0089]
s1025,根据第一判别结果、第二判别结果和第三判别结果计算去噪网络模型的目标损失值。
[0090]
这里,通过两个判别网络(即全局判别网络d1和局部判别网络d2)的判别结果引导去噪网络模型即生成网络的训练,具体的实现过程详见实施例二。
[0091]
s1026,根据目标损失值更新去噪网络模型的网络参数,获得训练后的去噪网络模型。
[0092]
本步骤可具体包括:根据目标损失值更新去噪网络模型的网络参数后,判断更新后的去噪网络模型是否满足预设条件,若满足预设条件,将更新后的去噪网络模型确定为训练后的去噪网络模型;否则,则对更新后的去噪网络模型进行再次更新,直至更新后的去噪网络模型满足预设条件。
[0093]
其中,对更新后的去噪网络模型进行再次更新具体为:将更新后的去噪网络模型更新为去噪网络模型后,返回执行步骤s1021以及后续步骤。此时,步骤s1021中的数据对更换为训练数据集中的下一个数据对。
[0094]
可选的,预设条件为本次更新后的去噪网络模型的目标损失值与其上一次更新后的去噪网络模型的目标损失值相等,或者,预设条件为更新后的去噪网络模型对应的网络参数更新次数累计达到第二预设次数。
[0095]
在一示例中,若本次更新后的去噪网络模型的目标损失值与其上一次更新后的去噪网络模型的目标损失值不相等,且本轮去噪网络模型的网络参数更新次数未达到第三预设次数,则将更新后的去噪网络模型更新为去噪网络模型后,返回执行步骤s1021以及后续步骤,直至本次更新后的去噪网络模型的目标损失值与其上一次更新后的去噪网络模型的目标损失值,或者本轮去噪网络模型的网络参数更新次数达到第三预设次数。
[0096]
这里,完成一轮网络参数更新包括对全局判别网络的多次网络参数更新,对局部判别网络的多次网络参数更新和对去噪网络模型的多次网络参数更新。其中,两个判别网络的网络参数更新的次数大于去噪网络模型的网络参数更新的次数。对不同网络的网络参数进行更新时所使用的数据对不同。需要说明的是,在对一个网络的网络参数进行更新的过程中,另外两个网络的网络参数固定不变。
[0097]
而当本轮去噪网络模型的网络更新次数达到第三预设次数,本次更新后的去噪网络模型的目标损失值与其上一次更新后的去噪网络模型的目标损失值不相等,则将执行下一轮网络参数更新过程,直至本次更新后的去噪网络模型的目标损失值与其上一次更新后的去噪网络模型的目标损失值。需要说明的是,此时,全局判别网络的损失值和局部判别网络的损失值不再减小。
[0098]
实施例二
[0099]
在一种可能的实现方式中,步骤s1025的实现过程可以具体包括:
[0100]
b1:计算第一损失值,第一损失值表示第一视频图像与第五视频图像之间的特征距离。
[0101]
需要说明的是,由于训练数据中的数据对是非配对的,不存在真正的与第一视频图像对应的真实图像(第二视频图像),所以为了保证生成网络输出前后的视频图像内容的一致性,本技术实施例使用感知损失perceptual loss函数,计算用于表示第一视频图像与第五视频图像之间的特征距离的第一损失值,具体实现过程包括:
[0102]
b11:分别提取第一视频图像的图像特征和第五视频图像的图像特征。
[0103]
具体的,利用预先训练好的特征提取模型分别提取第一视频图像的图像特征和第五视频图像的图像特征。
[0104]
可选的,特征提取模型为vgg-16模型。
[0105]
b12:根据第一视频图像的图像特征和第五视频图像的图像特征,计算第一视频图像与第五视频图像之间的特征距离。
[0106]
具体的,采用下述公式(6)计算第一视频图像与第五视频图像之间的特征距离:
[0107][0108]
其中,表示第一视频图像经过特征提取模型第i个最大池化层之后的第j个卷积层提取的图像特征,i表示第一视频图像;表示第五视频图像经过特征提取模型第i个最大池化层之后的第j个卷积层提取的图像特征,g(i)表示第一视频图像通过生成网络后得到的第五视频图像,y表示图像的高度,取值范围从1~h
i,j
,x表示图像的宽度,取值范围从1~w
i,j
,w
i,jhi,j
用于表示图像的面积,l
p
表示第一损失值,即第一视频图像与第五视频图像之间的特征距离。
[0109]
b13:将第一视频图像与第五视频图像之间的特征距离确定为第一损失值。
[0110]
b2:根据第一判别结果和所述第二判别结果,计算第二损失值。
[0111]
在一种可能的实现方式中,步骤b2的实现过程可以包括:
[0112]
b21:分别计算第一判别结果的第一期望值和第二判别结果的第二期望值。
[0113]
b22:基于预设激活函数,分别计算第一判别结果的第一函数值和第二判别结果的第二函数值。
[0114]
b23:根据第一期望值、第二期望值、第一函数值和第二函数值,计算第二损失值。
[0115]
需要说明的是,上述步骤b21~步骤b23可通过公式(7)表示,即采用下述公式(7),计算第二损失值:
[0116][0117]
这里,dc(xf,xr)可以用上述公式(4)表示,dc(xr,xf)可以用上述公式(3)表示,即:
[0118][0119][0120]
此时,d1(xf)表示第一判别结果,d1(xr)表示第二判别结果,表示第二损失值。
[0121]
b3:根据第三判别结果,计算第三损失值。
[0122]
具体的,采用下述公式(8),计算第三损失值:
[0123][0124]
其中,d2(xf)表示第三判别结果,表示第三损失值。
[0125]
b4:将第一损失值、第二损失值和第三损失值求和,得到去噪网络模型的目标损失值。
[0126]
这里,目标损失值
[0127]
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本技术实施例的实施过程构成任何限
定。
[0128]
对应于上文实施例所述的方法,图3示出了本技术实施例提供的图像去噪装置的结构框图,为了便于说明,仅示出了与本技术实施例相关的部分。
[0129]
参照图3,该装置300可以包括:获取模块310、训练模块320和去噪处理模块330。
[0130]
其中,获取模块310,用于获取训练数据集,其中,训练数据集包括多个数据对,每个数据对包括n张第一视频图像和n张第二视频图像,第一视频图像对应的车内的光线亮度值小于所述第二视频图像对应的车内的光线亮度值,第一视频图像和所述第二视频图像各自对应同一车内的不同拍摄对象,n为正整数。
[0131]
训练模块320,用于基于训练数据集对待训练的去噪网络模型进行迭代训练,得到训练后的去噪网络模型。
[0132]
去噪处理模块330,用于基于训练后的去噪网络模型对第三视频图像进行去噪处理,得到去噪处理后的第四视频图像。
[0133]
在一种可能的实现方式中,训练模块320具体可以包括:
[0134]
第一处理子模块,用于将数据对中的第一视频图像输入去噪网络模型,得到第五视频图像。
[0135]
第二处理子模块,用于将第五视频图像输入全局判别网络,得到第一判别结果。
[0136]
第三处理子模块,用于将所述数据对中的第二视频图像输入全局判别网络,得到第二判别结果。
[0137]
第四处理子模块,用于将第五视频图像的局部图像输入局部判别网络,得到第三判别结果。
[0138]
第一计算子模块,用于根据第一判别结果、第二判别结果和第三判别结果计算去噪网络模型的目标损失值。
[0139]
参数更新子模块,用于根据目标损失值更新去噪网络模型的网络参数,获得训练后的去噪网络模型。
[0140]
在一种可能的实现方式中,第一计算子模块具体可以包括:
[0141]
第一计算单元,用于计算第一损失值,第一损失值表示第一视频图像与第五视频图像之间的特征距离。
[0142]
第二计算单元,用于根据第一判别结果和第二判别结果,计算第二损失值。
[0143]
第三计算单元,用于根据第三判别结果,计算第三损失值。
[0144]
第四计算单元,用于将第一损失值、第二损失值和第三损失值求和,得到去噪网络模型的目标损失值。
[0145]
在一种可能的实现方式中,第一计算单元具体用于:
[0146]
分别提取第一视频图像的图像特征和第五视频图像的图像特征。
[0147]
根据第一视频图像的图像特征和第五视频图像的图像特征,计算第一视频图像与第五视频图像之间的特征距离。
[0148]
将第一视频图像与第五视频图像之间的特征距离确定为第一损失值。
[0149]
在一种可能的实现方式中,第二计算单元具体用于:
[0150]
分别计算第一判别结果的第一期望值和第二判别结果的第二期望值。
[0151]
基于预设激活函数,分别计算第一判别结果的第一函数值和第二判别结果的第二
函数值。
[0152]
根据第一期望值、第二期望值、第一函数值和第二函数值,计算第二损失值。
[0153]
在一种可能的实现方式中,去噪处理模块330具体可以用于:
[0154]
获取车辆内部的第三视频图像。
[0155]
基于第三视频图像中每个像素点的亮度值,计算得到第三视频图像对应的平均光线亮度值。
[0156]
若平均光线亮度值小于第一预设阈值,则基于训练后的去噪网络模型对第三视频图像进行去噪处理,得到去噪处理后的第四视频图像。
[0157]
在一种可能的实现方式中,获取模块310具体可以用于:
[0158]
采集满足第一条件时车内的视频图像,将满足第一条件时车内的视频图像作为第一视频图像,第一条件为光线亮度值小于第二预设阈值。
[0159]
采集满足第二条件时车内的视频图像,将满足第二条件时车内的视频图像作为第二视频图像,第二条件为光线亮度值大于或者等于第二预设阈值。
[0160]
基于第一视频图像和第二视频图像构建训练数据集。
[0161]
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本技术方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
[0162]
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本技术的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0163]
本技术实施例还提供了一种车辆,参见图4,该车辆包括终端设备,该终端设备400可以包括:至少一个处理器410、存储器420以及存储在所述存储器420中并可在所述至少一个处理器410上运行的计算机程序,所述处理器410执行所述计算机程序时实现上述任意各个方法实施例中的步骤,例如图1所示实施例中的步骤s101至步骤s103。或者,处理器410执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如图3所示模块310至330的功能。
[0164]
示例性的,计算机程序可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器420中,并由处理器410执行,以完成本技术。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序段,该程序段用于描述计算机程序在终端设备400中的执行过程。
[0165]
本领域技术人员可以理解,图4仅仅是终端设备的示例,并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如输入输出设备、网络接入设备、总线等。
[0166]
处理器410可以是中央处理单元(central processing unit,cpu),还可以是其他
通用处理器、数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现成可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
[0167]
存储器420可以是终端设备的内部存储单元,也可以是终端设备的外部存储设备,例如插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。所述存储器420用于存储所述计算机程序以及终端设备所需的其他程序和数据。所述存储器420还可以用于暂时地存储已经输出或者将要输出的数据。
[0168]
总线可以是工业标准体系结构(industry standard architecture,isa)总线、外部设备互连(peripheral component,pci)总线或扩展工业标准体系结构(extended industry standard architecture,eisa)总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,本技术附图中的总线并不限定仅有一根总线或一种类型的总线。
[0169]
本技术实施例提供的图像去噪方法可以应用于计算机、平板电脑、笔记本电脑、上网本、个人数字助理(personal digital assistant,pda)等终端设备上,本技术实施例对终端设备的具体类型不作任何限制。
[0170]
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
[0171]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本技术的范围。
[0172]
在本技术所提供的实施例中,应该理解到,所揭露的终端设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
[0173]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0174]
另外,在本技术各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0175]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本技术实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机
程序可存储于一计算机可读存储介质中,该计算机程序在被一个或多个处理器执行时,可实现上述各个方法实施例的步骤。
[0176]
同样,作为一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行时实现可实现上述各个方法实施例中的步骤。
[0177]
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
[0178]
以上所述实施例仅用以说明本技术的技术方案,而非对其限制;尽管参照前述实施例对本技术进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本技术各实施例技术方案的精神和范围,均应包含在本技术的保护范围之内。