校正坏点的装置、板卡、方法及可读存储介质与流程

文档序号:32477686发布日期:2022-12-09 18:02阅读:96来源:国知局
校正坏点的装置、板卡、方法及可读存储介质与流程

1.本发明一般地涉及神经网络领域。更具体地,本发明涉及利用训练数据在神经网络模型中校正坏点的装置、板卡、方法及可读存储介质。


背景技术:

2.图像坏点指的是摄像头上的像素点阵列存在工艺上的缺陷,或在光信号转化为电信号的过程中出现错误,导致图像中的像素值不准确。
3.图像坏点分为以下两种。第一种是静态坏点,又分为静态亮点和静态暗点。静态亮点的亮度值明显大于入射光乘以相应比例,并且随着曝光时间的增加,该点的亮度会一直处于全亮状态;静态坏点则是无论入射光的强度为何,该点的值接近于0,也就是全暗状态。第二种是动态坏点,其在一定像素范围内表现正常,但超过这范围,该点表现会比周围像素要亮或暗,比周围亮的是动态亮点,比周围暗的是动态暗点。
4.如果图像中存在坏点的话,由于在影像信号处理中进行插值和滤波处理时,坏点会影响周围的像素点值,因此现有技术在插值和滤波之前对坏点进行校正。坏点校正通常在拜耳(bayer)域进行。
5.现有技术在进行静态坏点校正时,基于历史静态坏点表,比较当前点的坐标是否与静态坏点表中的某个坐标一致,若一致则判定为坏点,接着对其进行校正。现有技术在进行动态坏点校正时,一般分为两阶段进行:第一阶段为坏点检测,基于梯度变化,找出亮度相对于周围窗口变化巨大的像素值;第二阶段是坏点校正,对检测出的坏点使用插值算法校正。
6.现有技术的坏点校正难以去除所有的静态坏点,而去除动态坏点又需要额外的计算。再者,拜耳域去噪的对坏点较为敏感,甚至于会放大坏点,使得坏点更难以去除。
7.因此,一种改良式的坏点校正方案是迫切需要的。


技术实现要素:

8.为了至少部分地解决背景技术中提到的技术问题,本发明的方案提供了一种利用训练数据在神经网络模型中校正坏点的装置、板卡、方法及可读存储介质。
9.在一个方面中,本发明揭露一种利用训练数据在神经网络模型中校正坏点的方法,该神经网络模型用以执行图像信号处理的任务。本发明的方法包括:随机在训练数据中仿真多个坏点,以生成仿真数据;基于仿真数据对神经网络模型进行训练;以及将图像数据输入至训练后的神经网络模型以执行任务,以获得校正坏点后的计算结果。
10.在另一个方面,本发明揭露一种计算机可读存储介质,其上存储有利用训练数据在神经网络模型中校正坏点的计算机程序代码,当计算机程序代码由处理装置运行时,执行前述的方法。
11.在另一个方面,本发明揭露一种利用训练数据在神经网络模型中校正坏点的集成电路装置,包括处理装置及计算装置。处理装置用以随机在训练数据中仿真多个坏点,以生
成仿真数据。计算装置用以基于仿真数据对神经网络模型进行训练;以及将图像数据输入至训练后的神经网络模型以执行任务,以获得校正坏点后的计算结果。
12.在另一个方面,本发明揭露一种板卡,包括前述的集成电路装置。
13.本发明提出了一种基于深度学习的坏点校正方案,在具有特定任务的神经网络训练中额外模拟静态和动态坏点。通过添加坏点仿真,神经网络模型在训练过程中一方面可以优化原本任务,另一方面还能对坏点进行去除或者抑制。
附图说明
14.通过参考附图阅读下文的详细描述,本发明示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本发明的若干实施方式,并且相同或对应的标号表示相同或对应的部分其中:
15.图1是示出本发明实施例的板卡的结构图;
16.图2是示出本发明实施例的集成电路装置的结构图;
17.图3是示出本发明实施例的计算装置的内部结构示意图;
18.图4是示出本发明实施例的处理器核的内部结构示意图;
19.图5是示出当一个处理器核欲将数据写入至另一个集群的处理器核时的示意图;
20.图6是示出本发明另一个实施例利用训练数据在神经网络模型中校正坏点的流程图;以及
21.图7是示出本发明另一个实施例随机在训练数据中仿真多个坏点以生成仿真数据的流程图。
具体实施方式
22.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
23.应当理解,本发明的权利要求、说明书及附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。本发明的说明书和权利要求书中使用的术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
24.还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的,而并不意在限定本发明。如在本发明说明书和权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。还应当进一步理解,在本发明说明书和权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
25.如在本说明书和权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。
26.下面结合附图来详细描述本发明的具体实施方式。
27.本发明提出一种利用训练数据在神经网络模型中校正坏点的方案,此神经网络模
型原本用来执行与计算机视觉有关的特定任务,例如图像识别、目标检测、语义分割、视频理解、图像生成、去噪、去马赛克等。在训练此神经网络模型的同时仿真静态和动态坏点,使得此神经网络模型在训练过程中,除了优化原特定任务外,还可以通过参数的更新抑制坏点对图像的影响。
28.本发明的实施例是一种应用于具有摄像头以实现计算机视觉的网络架构中,该网络架构具有如图1所示的板卡10。如图1所示,板卡10包括芯片101,其是一种系统级芯片(system on chip,soc),或称片上系统,集成有一个或多个组合处理装置,组合处理装置是一种人工智能运算单元,用以支持各类深度学习和机器学习算法,满足计算机视觉领域复杂场景下的智能处理需求。特别是深度学习技术大量应用在云端智能领域,云端智能应用的一个显著特点是输入数据量大,对平台的存储能力和计算能力有很高的要求,此实施例的板卡10适用在云端智能应用,具有庞大的片外存储、片上存储和强大的计算能力。
29.芯片101通过对外接口装置102与外部设备103相连接。在此实施例中,外部设备103为摄像头。待处理的图像数据可以由外部设备103通过对外接口装置102传递至芯片101。根据不同的应用场景,对外接口装置102可以具有不同的接口形式,例如pcie接口等。
30.板卡10还包括用于存储数据的存储器件104,其包括一个或多个存储单元105。存储器件104通过总线与控制器件106和芯片101进行连接和数据传输。板卡10中的控制器件106配置用于对芯片101的状态进行调控。为此,在一个应用场景中,控制器件106可以包括单片机(micro controller unit,mcu)。
31.图2是示出此实施例的芯片101中的组合处理装置的结构图。如图2中所示,组合处理装置20包括计算装置201、接口装置202、处理装置203和dram 204。
32.计算装置201配置成执行用户指定的操作,主要实现为单核智能处理器或者多核智能处理器,用以执行深度学习或机器学习的计算,其可以通过接口装置202与处理装置203进行交互,以共同完成计算机视觉的操作。
33.接口装置202用于在计算装置201与处理装置203间传输数据和控制指令。例如,计算装置201可以经由接口装置202从处理装置203中获取输入数据,写入计算装置201片上的存储装置。进一步,计算装置201可以经由接口装置202从处理装置203中获取控制指令,写入计算装置201片上的控制缓存中。替代地或可选地,接口装置202也可以读取计算装置201的存储装置中的数据并传输给处理装置203。
34.处理装置203作为通用的处理装置,执行包括但不限于数据搬运、对计算装置201的开启和/或停止等基本控制。根据实现方式的不同,处理装置203可以是中央处理器(central processing unit,cpu)、图形处理器(graphics processing unit,gpu)或其他通用和/或专用处理器中的一种或多种类型的处理器,这些处理器包括但不限于数字信号处理器(digital signal processor,dsp)、专用集成电路(application specific integrated circuit,asic)、现场可编程门阵列(field-programmable gate array,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,并且其数目可以根据实际需要来确定。如前所述,仅就本发明的计算装置201而言,其可以视为具有单核结构或者同构多核结构。然而,当将计算装置201和处理装置203整合共同考虑时,二者视为形成异构多核结构。
35.dram 204用以存储待处理的数据,为ddr内存,大小通常为16g或更大,用于保存计
算装置201和/或处理装置203的数据,包括训练神经网络模型的训练样本集。
36.图3示出了计算装置201的内部结构示意图。计算装置201用以处理计算机视觉的输入数据,图中的计算装置201采用多核分层结构设计,计算装置201作为一个片上系统,其包括多个集群(cluster),每个集群又包括多个处理器核,换言之,计算装置201是以片上系统-集群-处理器核的层次所构成的。
37.以片上系统的层级来看,如图3所示,计算装置201包括外部存储控制器301、外设通信模块302、片上互联模块303、同步模块304以及多个集群305。
38.外部存储控制器301可以有多个,在图中示例性地展示2个,其用以响应处理器核发出的访问请求,访问外部存储设备,例如图2中的dram204,从而自片外读取图像数据或是将数据写入。外设通信模块302用以通过接口装置202接收来自处理装置203的控制信号,启动计算装置201执行任务。片上互联模块303将外部存储控制器301、外设通信模块302及多个集群305连接起来,用以在各个模块间传输数据和控制信号。同步模块304是一种全局同步屏障控制器(global barrier controller,gbc),用以协调各集群的工作进度,确保信息的同步。多个集群305是计算装置201的计算核心,在图中示例性地展示4个,随着硬件的发展,本发明的计算装置201还可以包括8个、16个、64个、甚至更多的集群305。集群305用以高效地执行深度学习算法。
39.以集群的层级来看,如图3所示,每个集群305包括多个处理器核(ipu core)306及一个存储核(mem core)307。
40.处理器核306在图中示例性地展示4个,本发明不限制处理器核306的数量。其内部架构如图4所示。每个处理器核306包括三大模块:控制模块41、运算模块42及存储模块43。
41.控制模块41用以协调并控制运算模块42和存储模块43的工作,以完成深度学习的任务,其包括取指单元(instruction fetch unit,ifu)411及指令译码单元(instruction decode unit,idu)412。取指单元411用以获取来自处理装置203的指令,指令译码单元412则将获取的指令进行译码,并将译码结果作为控制信息发送给运算模块42和存储模块43。
42.运算模块42包括向量运算单元421及矩阵运算单元422。向量运算单元421用以执行向量运算,可支持向量乘、加、非线性变换等复杂运算;矩阵运算单元422负责深度学习算法的核心计算,即矩阵乘及卷积。
43.存储模块43用来存储或搬运相关数据,包括神经元存储单元(neuron ram,nram)431、权值存储单元(weight ram,wram)432、输入/输出直接内存访问模块(input/output direct memory access,iodma)433、搬运直接内存访问模块(move direct memory access,mvdma)434。nram431用以存储供处理器核306计算的特征图及计算后的中间结果;wram432则用以存储深度学习网络的权值;iodma 433通过广播总线309控制nram 431/wram 432与dram 204的访存;mvdma 434则用以控制nram 431/wram 432与sram 308的访存。
44.回到图3,存储核307主要用以存储和通信,即存储处理器核306间的共享数据或中间结果、以及执行集群305与dram 204之间的通信、集群305间彼此的通信、处理器核306间彼此的通信等。在其他实施例中,存储核307具有标量运算的能力,用以执行标量运算。
45.存储核307包括共享存储单元(sram)308、广播总线309、集群直接内存访问模块(cluster direct memory access,cdma)310及全局直接内存访问模块(global direct memory access,gdma)311。sram 308承担高性能数据中转站的角色,在同一个集群305内不
同处理器核306之间所复用的数据不需要通过处理器核306各自向dram 204获得,而是经sram 308在处理器核306间中转,存储核307只需要将复用的数据从sram 308迅速分发给多个处理器核306即可,以提高核间通讯效率,亦大大减少片上片外的输入/输出访问。
46.广播总线309、cdma 310及gdma 311则分别用来执行处理器核306间的通信、集群305间的通信和集群305与dram 204的数据传输。以下将分别说明。
47.广播总线309用以完成集群305内各处理器核306间的高速通信,此实施例的广播总线309支持核间通信方式包括单播、多播与广播。单播是指点对点(即单一处理器核至单一处理器核)的数据传输,多播是将一份数据从sram 308传输到特定几个处理器核306的通信方式,而广播则是将一份数据从sram 308传输到所有处理器核306的通信方式,属于多播的一种特例。
48.cdma 310用以控制在同一个计算装置201内不同集群305间的sram 308的访存。图5示出当一个处理器核欲将数据写入至另一个集群的处理器核时的示意图,以说明cdma 310的工作原理。在此应用场景中,同一个计算装置包括多个集群,为方便说明,图中仅展示集群0与集群1,集群0与集群1分别包括多个处理器核,同样为了说明方便,图中的集群0仅展示处理器核0,集群1仅展示处理器核1。处理器核0欲将数据写入至处理器核1。
49.首先,处理器核0发送单播写请求将数据写入本地的sram 0中,cdma 0作为主(master)端,cdma 1作为从(slave)端,主端向从端推送写请求,即主端发送写地址aw和写数据w,将数据传送到集群1的sram 1中,接着从端发送写响应b作为回应,最后集群1的处理器核1发送单播读请求将数据从sram 1中读取出来。
50.回到图3,gdma 311与外部存储控制器301协同,用以控制集群305的sram 308到dram 204的访存,或是将数据自dram 204读取至sram 308中。从前述可知,dram 204与nram 431或wram 432间的通信可以经由2个渠道来实现。第一个渠道是通过iodam 433直接联系dram 204与nram 431或wram 432;第二个渠道是先经由gdma 311使得数据在dram 204与sram 308间传输,再经过mvdma 434使得数据在sram 308与nram 431或wram 432间传输。虽然表面上看来第二个渠道需要更多的元件参与,数据流较长,但实际上在部分实施例中,第二个渠道的带宽远大于第一个渠道,因此dram 204与nram 431或wram 432间的通信通过第二个渠道可能更有效率。本发明的实施例可根据本身硬件条件选择数据传输渠道。
51.在其他实施例中,gdma 311的功能和iodma 433的功能可以整合在同一部件中。本发明为了方便描述,将gdma 311和iodma 433视为不同部件,对于本领域技术人员来说,只要其实现的功能以及达到的技术效果与本发明类似,即属于本发明的保护范围。进一步地,gdma 311的功能、iodma 433的功能、cdma 310的功能、mvdma 434的功能亦可以由同一部件来实现。
52.如前所述,dram 204储存有训练神经网络模型的训练样本集,此训练样本集里的训练数据是用来训练该神经网络模型的,训练数据被输入至神经网络模型中,先正向传播计算得到误差函数,再反向针对模型中各参数求导梯度下降,在得到了偏导数之后,调整各参数值。大量重复上述程序,直到误差函数缩小到一个可接受范围,便完成了该神经网络模型对训练数据的学习。
53.在训练前,处理装置203自dram 204取出训练数据,随机在训练数据中仿真多个坏点,以生成仿真数据,即处理装置203把坏点的信息随机加入训练数据中,使得部分像素成
为坏点。此处的坏点可以是静态坏点及/或动态坏点。静态坏点又分为静态亮点和静态暗点,动态坏点也分为动态亮点和动态暗点。当处理装置203把坏点的信息随机加入训练数据中时,可以仅考虑静态坏点,或仅考虑动态坏点,或是两者皆有。
54.如果仿真数据包括静态坏点,则仿真数据载有静态坏点中的静态亮点及静态暗点的信息,静态亮点及静态暗点出现在训练数据里多帧画面中的固定位置,也就是模拟同一个坏点像素,固定位置由处理装置203随机生成。
55.如果仿真数据包括动态坏点,则仿真数据载有动态坏点的信息,不同于静态坏点,动态坏点出现在训练数据里多帧画面中的随机位置,随机位置由处理装置203随机生成。
56.此实施例可以考虑到坏点面积的情况来设定各种坏点的坏点显现率,坏点显现率指的是该种坏点出现的概率。现实中坏点不总是一个像素,在一些情况下,可能是连续好几个坏点形成一个坏点群。此实施例设定各种坏点群的坏点显现率,处理装置203根据坏点显现率决定相对应特定大小的坏点群在训练数据里出现的次数。示例性地,此实施例设定静态暗点的坏点面积与其坏点显现率如下。
[0057][0058][0059]
例如1*1的静态暗点(即单个像素)的坏点显现率为千分之一,则当处理装置203在模拟1*1的静态暗点时,根据坏点显现率,在一千个像素中随机选择一个目标点,不论该目标点的像素值为何,都将该目标点的像素值调整为0,使其成为静态暗点。本发明并不限制静态亮点与静态暗点的坏点显现率需相同,在其他实施例中,静态亮点的坏点显现率与静态暗点的坏点显现率可以不同。
[0060]
当处理装置203在模拟静态暗点群时,根据坏点面积为2*1的坏点显现率,在二千个像素中随机选择2*1目标群(即连续2个像素),不论该目标点的像素值为何,都将该目标群各像素的像素值调整为0,使其成为静态暗点群。再根据坏点面积为2*2的坏点显现率,在五千个像素中随机选择2*2目标群(即4个像素形成的坏点方阵),不论该目标群各像素的像素值为何,都将该目标点的像素值调整为0,使其成为静态暗点群。以此类推,不一一阐述。
[0061]
此实施例还可以进一步考虑到坏点和温度、像素亮度值、增益的关系。一般情况下,摄像头的温度越高,坏点出现的概率也越高;像素亮度越大,成为坏点的概率也越高,例如亮度超过0.5,该像素只能全亮,区分不出0.5至1间的不同亮度值;增益调的越高,坏点的概率就越大,为了能在不同的景物照度条件下输出的标准视频信号,摄像头中放大器的增益在一定的范围内会进行调节,具有这种功能的摄像头,在低照度的灵敏度会提高,但同时噪点也会比较明显,这是由于信号和噪声被同时放大的缘故。
[0062]
为了反映前述差异,在模拟动态亮点时,处理装置203会设定上阈值及阈值触发
率,其中上阈值用以表示上极端情况,阈值触发率用以反映前述各种不同情况下发生坏点的概率。当处理装置203在仿真动态亮点时,会判断阈值触发率是否被满足,如是,继续判断训练数据里的像素的数值是否大于上阈值,如大于上阈值,设定该像素的数值为1,也就是不论像素值为何都是全亮,以模拟动态亮点。
[0063]
以温度为例,设定当摄像头温度低于0度时,阈值触发率为五千分之一,当摄像头温度介于0度至50度时,阈值触发率为千分之一,当摄像头温度高于50度时,阈值触发率为五百分之一,另设定上阈值为0.8。当处理装置203在仿真动态亮点时,如果模拟摄像头的温度为零下10度,则阈值触发率满足为五千分之一,即五千个像素中出现一个目标点,处理装置203模拟前述情况,当出现目标点时,处理装置继续判断该目标点的数值是否大于上阈值,假设该目标点的像素值为0.9,大于上阈值0.8,处理装置203将该目标点的数值从0.9调整为1,使其变成全亮坏点。如果该目标点的像素值为0.4,不大于上阈值0.8,处理装置203维持原像素值,该目标点为正常像素。
[0064]
此外,处理装置203还可以设定下阈值。当处理装置203在仿真动态暗点时,会判断相应的阈值触发率是否被满足,如是,继续判断训练数据里的像素的数值是否小于下阈值,如小于下阈值,设定该像素的数值为0,也就是不论像素值为何都是全暗,以模拟动态暗点。
[0065]
以增益为例,当摄像头的放大器增益低于l1准位时,阈值触发率为千分之一,当摄像头的放大器增益介于l1至l2准位时,阈值触发率为五百分之一,当摄像头的放大器增益高于l2准位时,阈值触发率为三百分之一,另设定下阈值为0.2。当处理装置203在仿真动态暗点时,如果模拟摄像头的放大器增益介于l1至l2准位,则阈值触发率满足为五百分之一,即五百个像素中出现一个目标点,处理装置203模拟前述情况,当出现目标点时,处理装置继续判断该目标点的数值是否小于下阈值,假设该目标点的像素值为0.1,小于下阈值0.2,处理装置203将该目标点的数值从0.1调整为0,使其变成全暗坏点。如果该目标点的像素值为0.5,不小于下阈值0.2,处理装置203维持原像素值,该目标点为正常像素。
[0066]
以上各种坏点模拟完成后,处理装置203将仿真数据存储至dram204中。当训练开始时,计算装置201自dram 204取出仿真数据,而非原训练数据,基于仿真数据对神经网络模型进行训练。换言之,训练过程中一方面优化原本任务(如图像识别、目标检测、语义分割、视频理解、图像生成、去噪、去马赛克等),另一方面掩去各种坏点对任务结果的影响。也就是说,无论坏点的形式、大小、数量及位置为何,都可以借由训练神经网络模型的过程同步排除坏点的影响,最终使得损失函数的误差低于一定值,坏点不再实质影响计算结果,便完成了神经网络模型对训练数据的学习。
[0067]
当计算装置201利用训练好的神经网络模型执行任务时,计算装置201利用该摄像头的图像数据在训练后的神经网络模型中进行运算,便可获得校正坏点后的计算结果。
[0068]
本发明的另一个实施例为一种利用训练数据在神经网络模型中校正坏点的方法,图6示出该方法的流程图。
[0069]
在步骤601中,自内存取出训练数据,随机在训练数据中仿真多个坏点,以生成仿真数据,即把坏点的信息随机加入训练数据中,使得部分像素成为坏点。
[0070]
此实施例的坏点同样可以是静态坏点及/或动态坏点。静态坏点又分为静态亮点和静态暗点,动态坏点又分为动态亮点和动态暗点。当把坏点的信息随机加入训练数据中时,可以仅考虑静态坏点,或仅考虑动态坏点,或是两者皆有。
[0071]
如果仿真数据包括静态坏点,则仿真数据载有静态坏点中的静态亮点及静态暗点的信息,静态亮点及静态暗点出现在训练数据里多帧画面中的固定位置,也就是模拟同一个坏点像素,固定位置随机生成。如果仿真数据包括动态坏点,则仿真数据载有动态坏点的信息,动态坏点出现在训练数据里多帧画面中的随机位置,随机位置亦随机生成。
[0072]
步骤601又能细分为多个子步骤,如图7所示。
[0073]
在步骤701中,设定各种坏点的坏点显现率。此实施例可以考虑到坏点面积的情况来设定各种坏点的坏点显现率,坏点显现率指的是该种坏点出现的概率,示例性地,此实施例的坏点面积与其坏点显现率可以和前一实施例相同。
[0074]
在步骤702中,根据坏点显现率决定相对应特定大小的坏点在训练数据里出现的次数。
[0075]
例如1*1的静态暗点(即单个像素)的坏点显现率为千分之一,则当处理装置203在模拟1*1的静态暗点时,根据坏点显现率,在一千个像素中随机选择一个目标点,不论该目标点的像素值为何,都将该目标点的像素值调整为0,使其成为静态暗点。
[0076]
当处理装置203在模拟静态暗点群时,根据坏点面积为2*1的坏点显现率,在二千个像素中随机选择2*1目标群(即连续2个像素),不论该目标点的像素值为何,都将该目标群各像素的像素值调整为0,使其成为静态暗点群。再根据坏点面积为2*2的坏点显现率,在五千个像素中随机选择2*2目标群(即4个像素形成的坏点方阵),不论该目标群各像素的像素值为何,都将该目标点的像素值调整为0,使其成为静态暗点群。以此类推,不一一阐述。
[0077]
在步骤703中,设定上阈值及阈值触发率,其中上阈值用以表示上极端情况,阈值触发率用以反映在温度、增益、亮度不同情况下发生坏点的概率。
[0078]
在步骤704中,判断阈值触发率是否被满足。如是,则执行步骤705,判断训练数据里的像素的数值是否大于上阈值。如大于上阈值,则执行步骤706,设定该像素的数值为1,也就是不论像素值为何都是全亮,以模拟动态亮点。如在步骤704中判断阈值触发率未被满足,或是在步骤705中判断训练数据里的像素的数值未大于上阈值,则执行步骤707,像素值维持不变,该像素不会被调整成为坏点。
[0079]
更详细来说,此实施例会根据不同的情况设定不同的阈值触发率,以温度为例,设定当摄像头温度低于0度时,阈值触发率为五千分之一,当摄像头温度介于0度至50度时,阈值触发率为千分之一,当摄像头温度高于50度时,阈值触发率为五百分之一,另设定上阈值为0.8。当此实施例在仿真动态亮点时,如果模拟摄像头的温度为60度,则阈值触发率满足为五百分之一,即在步骤704中五百个像素中挑选一个目标点,在步骤705中判断该目标点的数值是否大于上阈值,假设该目标点的像素值为0.9,大于上阈值0.8,在步骤706中将该目标点的数值从0.9调整为1,使其变成全亮坏点。如果该目标点的像素值为0.4,不大于上阈值0.8,则执行步骤707,维持原像素值,该目标点为正常像素。
[0080]
在步骤708中,设定下阈值及阈值触发率,其中下阈值用以表示下极端情况。此处的阈值触发率可以与步骤703中的阈值触发率相同,或另行设定与下阈值相关的阈值触发率。
[0081]
在步骤709中,判断相应的阈值触发率是否被满足,如是,则执行步骤710,判断训练数据里的像素的数值是否小于下阈值,如小于下阈值,则执行步骤711,设定该像素的数值为0,也就是不论像素值为何都是全暗,以模拟动态暗点。如在步骤709中判断阈值触发率
未被满足,或是在步骤710中判断训练数据里的像素的数值未小于下阈值,则执行步骤712,像素值维持不变,该像素不会被调整成为坏点。
[0082]
以增益为例,当摄像头的放大器增益低于l1准位时,阈值触发率为千分之一,当摄像头的放大器增益介于l1至l2准位时,阈值触发率为五百分之一,当摄像头的放大器增益高于l2准位时,阈值触发率为三百分之一,另设定下阈值为0.2。在步骤709中,如果模拟摄像头的放大器增益低于l1准位,则阈值触发率满足为千分之一,即一千个像素中选择一个目标点。被选中的目标点执行步骤710,判断该目标点的数值是否小于下阈值,假设该目标点的像素值为0.1,小于下阈值0.2,在步骤711中将该目标点的数值从0.1调整为0,使其变成全暗坏点。如果该目标点的像素值为0.5,不小于下阈值0.2,则执行步骤712,维持原像素值,该目标点为正常像素。
[0083]
回到图6,以上各种坏点模拟完成后,接着执行步骤602,将仿真数据存储至内存中。
[0084]
当训练开始时,执行步骤603,自内存取出仿真数据,基于仿真数据对神经网络模型进行训练。换言之,训练过程中一方面优化原本任务(如图像识别、目标检测、语义分割、视频理解、图像生成、去噪、去马赛克等),另一方面掩去各种坏点对任务结果的影响。也就是说,无论坏点的形式、大小、数量及位置为何,都可以借由训练神经网络模型的过程同步排除坏点的影响,最终使得损失函数的误差低于一定值,坏点不再实质影响计算结果,便完成了神经网络模型对训练数据的学习。
[0085]
在步骤604中,将训练好的模型参数存储至内存中。
[0086]
在步骤605中,自内存取出训练好的模型参数,利用训练好的神经网络模型执行任务,也就是利用该摄像头的图像数据在训练后的神经网络模型中进行运算,便可获得校正坏点后的计算结果。
[0087]
本发明另一个实施例为一种计算机可读存储介质,其上存储有利用训练数据在神经网络模型中校正坏点的计算机程序代码,当所述计算机程序代码由处理器运行时,执行如图6及图7的方法。在一些实现场景中,上述集成的单元可以采用软件程序模块的形式来实现。如果以软件程序模块的形式实现并作为独立的产品销售或使用时,所述集成的单元可以存储在计算机可读取存储器中。基于此,当本发明的方案以软件产品(例如计算机可读存储介质)的形式体现时,该软件产品可以存储在存储器中,其可以包括若干指令用以使得计算机设备(例如个人计算机、服务器或者网络设备等)执行本发明实施例所述方法的部分或全部步骤。前述的存储器可以包括但不限于u盘、闪存盘、只读存储器(read only memory,rom)、随机存取存储器(random access memory,ram)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
[0088]
本发明可以在任何具有特定任务的神经网络训练中额外模拟静态和动态坏点。通过添加坏点仿真,神经网络模型在训练过程中一方面可以优化原本任务,另一方面还能对坏点进行去除或者抑制,无需事先消耗资源获得历史坏点表,整体效益佳。
[0089]
根据不同的应用场景,本发明的电子设备或装置可以包括服务器、云端服务器、服务器集群、数据处理装置、机器人、电脑、打印机、扫描仪、平板电脑、智能终端、pc设备、物联网终端、移动终端、手机、行车记录仪、导航仪、传感器、摄像头、相机、摄像机、投影仪、手表、耳机、移动存储、可穿戴设备、视觉终端、自动驾驶终端、交通工具、家用电器、和/或医疗设
access memory,dram)、静态随机存取存储器(static random access memory,sram)、增强动态随机存取存储器(enhanced dynamic random access memory,edram)、高带宽存储器(high bandwidth memory,hbm)、混合存储器立方体(hybrid memory cube,hmc)、rom和ram等。
[0094]
依据以下条款可更好地理解前述内容:
[0095]
条款a1、一种利用训练数据在神经网络模型中校正坏点的方法,所述神经网络模型用以执行图像信号处理的任务,所述方法包括:随机在所述训练数据中仿真多个坏点,以生成仿真数据;基于所述仿真数据对所述神经网络模型进行训练;以及将图像数据输入至训练后的神经网络模型以执行所述任务,以获得校正坏点后的计算结果。
[0096]
条款a2、根据条款a1所述的方法,其中所述多个坏点包括静态坏点,所述仿真数据载有所述静态坏点中的静态亮点及静态暗点的信息。
[0097]
条款a3、根据条款a2所述的方法,其中所述静态亮点及所述静态暗点出现在所述训练数据里多帧画面中的固定位置,所述固定位置随机生成。
[0098]
条款a4、根据条款a1所述的方法,其中所述多个坏点包括动态坏点,所述仿真数据载有所述动态坏点的信息。
[0099]
条款a5、根据条款a4所述的方法,其中所述动态坏点出现在所述训练数据里多帧画面中的随机位置。
[0100]
条款a6、根据条款a4所述的方法,所述仿真步骤还包括:设定上阈值及阈值触发率;判断所述阈值触发率是否被满足;如是,判断所述训练数据里的像素的数值是否大于所述上阈值;以及如大于所述上阈值,设定所述数值为1。
[0101]
条款a7、根据条款a6所述的方法,其中所述上阈值为0.8。
[0102]
条款a8、根据条款a4所述的方法,所述仿真步骤还包括:设定下阈值及阈值触发率;判断所述阈值触发率是否被满足;如是,判断所述训练数据里的像素的数值是否小于所述下阈值;以及如小于所述下阈值,设定所述数值为0。
[0103]
条款a9、根据条款a8所述的方法,其中所述下阈值为0.2。
[0104]
条款a10、根据条款a1所述的方法,所述仿真步骤还包括:设定多个坏点显现率,每个坏点显现率对应特定大小的像素群;以及根据所述坏点显现率决定相对应特定大小的像素群在所述训练数据里出现的次数。
[0105]
条款a11、一种计算机可读存储介质,其上存储有利用训练数据在神经网络模型中校正坏点的计算机程序代码,当所述计算机程序代码由处理装置运行时,执行条款a1至10任一项所述的方法。
[0106]
条款a12、一种利用训练数据在神经网络模型中校正坏点的集成电路装置,包括:处理装置,用以随机在所述训练数据中仿真多个坏点,以生成仿真数据;计算装置,用以:基于所述仿真数据对所述神经网络模型进行训练;以及将图像数据输入至训练后的神经网络模型以执行所述任务,以获得校正坏点后的计算结果。
[0107]
条款a13、根据条款a12所述的集成电路装置,其中所述多个坏点包括静态坏点,所述仿真数据载有所述静态坏点中的静态亮点及静态暗点的信息。
[0108]
条款a14、根据条款a13所述的集成电路装置,其中所述静态亮点及所述静态暗点出现在所述训练数据里多帧画面中的固定位置,所述固定位置由所述处理装置随机生成。
[0109]
条款a15、根据条款a12所述的集成电路装置,其中所述多个坏点包括动态坏点,所述仿真数据载有所述动态坏点的信息。
[0110]
条款a16、根据条款a15所述的集成电路装置,其中所述动态坏点出现在所述训练数据里多帧画面中的随机位置。
[0111]
条款a17、根据条款a15所述的集成电路装置,其中所述处理装置还用以:设定上阈值及阈值触发率;以及判断所述阈值触发率是否被满足,如是,判断所述训练数据里的像素的数值是否大于所述上阈值,如大于所述上阈值,设定所述数值为1。
[0112]
条款a18、根据条款a17所述的集成电路装置,其中所述上阈值为0.8。
[0113]
条款a19、根据条款a15所述的集成电路装置,其中所述处理装置还用以:设定下阈值及阈值触发率;以及判断所述阈值触发率是否被满足,如是,判断所述训练数据里的像素的数值是否小于所述下阈值,如小于所述下阈值,设定所述数值为0。
[0114]
条款a20、根据条款a19所述的集成电路装置,其中所述下阈值为0.2。
[0115]
条款a21、根据条款a12所述的集成电路装置,其中所述处理装置根据坏点显现率决定相对应特定大小的像素群在所述训练数据里出现的次数。
[0116]
条款a22、一种板卡,包括根据条款a12至21任一项所述的集成电路装置。
[0117]
以上对本发明实施例进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1