一种用于目标检测器模型训练过程中的免除采样方法与流程

文档序号:21104994发布日期:2020-06-16 21:11阅读:391来源:国知局
一种用于目标检测器模型训练过程中的免除采样方法与流程

本发明涉及深度学习和计算机视觉领域,尤其涉及目标检测模型训练中的采样方法。



背景技术:

目标检测中存在多种多样的不平衡,这些不平衡会影响最终的检测精度。最常见的比如类别不平衡,主要由样本数量上的差别引起。最典型的是前景和背景的不平衡,即训练过程中的正例数量远远小于负例数量引起的不平衡。

围绕这个研究问题,在传统解决方案中,消除这种类别不平衡的解决办法通常有三种:1.阈值偏移:降低数量少的类别的阈值。2.启发式采样:对于特定类别采用有偏选择,比如下采样和过采样。启发式的采样通常会改变数据的分布,导致了训练过程和推理过程中存在数据分布不一致的问题。3.用集成学习的方法来获得更鲁棒的模型。其中启发式采样的方法大致分为两类:1.硬采样方法(通常用于二阶段的目标检测),比如欠采样、ohem和iou平衡采样;2.软采样方法(通常用于一阶段的目标检测和anchor-free的目标检测器),比如focalloss和ghm。这些方法会引入复杂的超参数调整过程。

在现有的目标检测框架中,采样方法被广泛使用,其目的是解决训练中的正负样本的极端不平衡。然而,采样方法将引入繁琐的超参数调节,且将改变原始的数据分布,制约了检测器模型精度的提升。



技术实现要素:

为了解决以上技术问题,本发明提供了一种用于目标检测器模型训练过程中的免除采样方法,通过最优偏置初始化、指导性损失、类别自适应阈值三个策略来代替采样方法,且不引入新的超参数。避免了启发式采样中复杂的超参数调整过程。本发明相比于启发式采样,可以减少超参数的引入,同种检测器采用这种机制,在coco数据集上的准确度也更高。

本发明的技术方案为:一种用于目标检测器模型训练过程中的免除采样方法,包括如下步骤:

步骤1:最优偏差初始化,有偏地初始化检测器模型网络输出预测张量的卷积层的偏置,使得检测器的分类损失被在训练开始阶段被初始化为极小值点;

步骤2:设计目标检测器训练的指导性损失函数,使用目标检测中的边框回归损失指导确定分类损失缩放的比例,通过比例计算使得分类损失与边框回归损失在数值上时刻相等;

步骤3:设置目标检测器模型训练类别的自适应阈值,计算数据集中统计的类别的数量和所有类别的数量的比值与正负样本数量的比值的乘积,根据某类别的数量和所有类别的数量的比值自适应的确定阈值,进行模型训练。

进一步的,所述步骤1具体包括:

最优偏差初始化具体为:假设数据集中有c类目标种类,n个样本,其中有nf个前景样本,则在训练开始阶段,使用交叉熵分类损失的损失函数lce改写成:

其中,公式的前一项-log(π)是前景损失,后一项是背景损失;

公式(1)的导数为:

时,lce取得极小值,由σ(b)≈π求得初始化偏置应为:

进一步的,所述步骤2具体包括:

设计指导性损失函数,用回归损失lcls来确定分类损失降低的比例r:

其中,wreg指回归损失的权重,其中公式(4)在计算中不经过反向传播,整个损失函数l为:

l=wreglreg+wclslcls·r(4)

其中,wcls指分类损失的权重,r为(3)中计算出的比例;

回归损失不受前景背景不平衡的影响,设置wreg=1,微调wcls完成计算。

进一步的,所述步骤3体包括:

设置类别自适应阈值,

其中,θj是第j类的阈值,nj是训练数据集中第j类样本的数量。

有益效果:

本发明提出的一种用于目标检测器模型训练过程中的免除采样方法,相比于传统方法启发式采样,较少了超参数的引入,对于检测效果也有所提升。同时,通过采用折中机制,同种检测器在国际公开权威数据集上的准确性也更高,从而可以提升现有人脸识别,智能监控等系统的精度和效率,具有广泛的应用前景。

附图说明

图1(a)表示硬采样机制,对样本进行有选择性采样;

图1(b)表示软采样机制,对样本进行有偏向性地加权(粗线代表权重大);

图1(c)代表本发明提出的免除采样机制,对于训练样本不做处理,保留其原始分布;

图2为在coco数据集上训练maskr-cnn模型的效果图(上方是传统采样方法,下方应用了免除采样机制)。

具体实施方式

下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅为本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域的普通技术人员在不付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。

根据本发明的一个实施例,提出一种用于目标检测器模型训练过程中的免除采样方法,包括如下步骤:

步骤1:最优偏差初始化,有偏地初始化检测器模型网络输出预测张量的卷积层的偏置(bias),使得检测器的分类损失被在训练开始阶段被初始化为极小值点;在极端不平衡的情况下避免负样本贡献大量损失造成的网络发散现象,并解决模型利用不平衡分布来得到更低的损失函数的问题,加速了模型收敛速度;

步骤2:设计目标检测器训练的指导性损失函数,分类损失的大小对于模型训练很重要,在极端不平衡的情况下,分类损失将会较大,对模型训练带来困难。但是,人为减小的比例很难决定。由于检测器中的边框回归损失不受极端不平衡的影响,本发明通过使用检测中的边框回归损失来指导确定分类损失缩放的比例,通过比例计算使得分类损失与边框回归损失在数值上时刻相等,从而使得目标检测器模型能够轻易被训练;

步骤3:设置目标检测器模型训练类别的自适应阈值,极端不平衡将会造成检测器输出的置信度偏移问题,调整阈值是个十分有效的方法。但是不同类别有着不同的最优阈值,手动调整这些特定阈值非常耗时。本发明提出一种类别自适应阈值机制,通过计算数据集中统计的类别的数量和所有类别的数量的比值与正负样本数量的比值的乘积,根据特定的类别的数量和所有类别的数量的比值自适应的确定阈值。

进一步的,所述步骤1包括:

1)最优偏差初始化(optimalbiasinitialiazion):假设数据集中有c类目标种类,n个样本,其中有nf个前景样本,则分类的交叉熵损失函数可以改写成:

其中,前一项是前景损失,后一项是背景损失:

公式(1)的导数为:

时,lce取得极小值,由σ(b)≈π可求得初始化偏置应为

进一步的,所述步骤2包括:

2)指导性损失函数(guidedloss):参见图1-2,图1为本发明提出的方法与传统方法产生前景背景框的效果示意图;

其中,说明了训练过程中降低分类损失权重十分必要并且降低的比例很难判断,本发明提供了一种判定这个权重的方法。由于回归损失只在前景中计算,不会受到前景背景不平衡的影响。本发明基于此提出一种指导性损失函数,用回归损失lcls来确定分类损失降低的比例:

其中,wreg指回归损失的权重,其中公式(3)在计算中不经过反向传播,整个损失函数l为:

l=wreglreg+wclslcls·r(4)

其中,wcls指分类损失的权重,r为公式3中计算得到的比值。由于回归损失不受前景背景不平衡的影响,可以设置wreg=1,这样只需要微调wcls即可。

进一步的,所述步骤3包括:

3)设置类别自适应阈值(class-adaptivethreshold):

由表1和图1所示,调整阈值是解决置信度偏移问题的有效方法。对于确定每类的最优阈值,本发明提供了一种类别自适应阈值机制:

其中,θj是第j类的阈值,nj是训练数据集中每一类样本的数量。n和nf的定义等同于步骤一中所述。表1为在coco数据集上对于各种模型的提升效果表格。

表1

本发明实施上述方案,通过以上三种策略使目标检测任务中免除采样机制得以训练,并且准确度有所提高。

尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,且应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1