基于深度学习和判别式模型训练的目标跟踪方法及存储器与流程

文档序号:22616747发布日期:2020-10-23 19:17阅读:来源:国知局

技术特征:

1.一种基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,所述方法包括:离线训练阶段和在线跟踪阶段;

所述离线训练阶段包括:

利用深度特征提取网络分别从训练图像和测试图像中提取预定义的样本框的特征,得到所述训练图像的样本框特征和所述测试图像的样本框特征;并通过计算各样本框的中心位置与目标物体的中心位置间的高斯距离,分别得到所述训练图像的样本框标签和所述测试图像的样本框第一标签;

根据所述训练图像的样本框特征与所述训练图像的样本框标签,利用具有可微闭式解的判别式模型求解器训练得到判别式模型;

根据所述测试图像的样本框特征,用训练得到的所述判别式模型预测所述测试图像的样本框标签,得到所述测试图像的样本框第二标签;并将所述测试图像的样本框第二标签与所述测试图像的样本框第一标签进行对比,得到网络预测损失以驱动所述深度特征提取网络的优化学习;

所述在线跟踪阶段包括:

利用已训练的所述深度特征提取网络和所述判别式模型对待跟踪图像序列中的目标物体进行跟踪,并对所述判别式模型进行在线训练与更新。

2.根据权利要求1所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,所述深度特征提取网络包括:深度卷积神经网络、池化层和全连接层;

所述深度特征提取网络从输入图像中提取样本框特征的步骤包括:

使用所述深度卷积神经网络从所述输入图像中提取特征图;

使用所述池化层进行基于感兴趣区域的池化操作,在提取的特征图中对定义在所述输入图像中的样本框提取特征,以保证任意尺度的样本框输出相同维度的特征图;

使用所述全连接层将所述特征图映射为样本框特征向量,作为所述输入图像的样本框特征。

3.根据权利要求1所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,“根据所述训练图像的样本框特征与所述训练图像的样本框标签,利用具有可微闭式解的判别式模型求解器训练得到判别式模型”的步骤包括:

使用岭回归模型求解器作为判别式模型求解器,训练岭回归模型将所述训练图像的样本框特征拟合到所述训练图像的样本框标签上,并利用woodbury公式加速所述岭回归模型的训练。

4.根据权利要求1所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,“根据所述测试图像的样本框特征,用训练得到的所述判别式模型预测所述测试图像的样本框标签,得到所述测试图像的样本框第二标签,并将所述测试图像的样本框第二标签与所述测试图像的样本框第一标签进行对比,得到网络预测损失以驱动所述深度特征提取网络的优化学习”的步骤包括:

用训练得到的所述判别式模型对所述测试图像的样本框标签进行预测,得到所述测试图像的样本框第二标签;

根据所述测试图像的样本框第二标签与所述测试图像的样本框第一标签,使用收缩函数计算网络预测损失;

根据所述网络预测损失,使用深度学习优化器对所述深度特征提取网络的模型参数进行更新。

5.根据权利要求1所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,“利用已训练的所述深度特征提取网络和所述判别式模型对待跟踪图像序列中的目标物体进行跟踪,并对所述判别式模型进行在线训练与更新”的步骤包括:

使用已训练的所述深度特征提取网络从待跟踪图像序列的第一帧图像中提取相应的样本框特征,进而用岭回归模型求解器训练得到岭回归模型;

使用已训练的所述深度特征提取网络从所述待跟踪图像序列的后续帧图像中提取相应的样本框特征,进而用基于二次收敛的迭代方法对上一帧的岭回归模型进行更新。

6.根据权利要求3所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,所述岭回归模型为:

其中,为训练得到的岭回归模型,x为所述训练图像的样本框特征构成的矩阵,y为所述训练图像的样本框标签构成的向量,为正则项,i为单位矩阵。

7.根据权利要求3所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,“利用woodbury公式加速所述岭回归模型的训练”的步骤包括:

利用下式等价地求解

8.根据权利要求4所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,“根据所述测试图像的样本框第二标签与所述测试图像的样本框第一标签,使用收缩函数计算网络预测损失”的步骤包括:

利用下式计算所述测试图像的样本框特征第二标签与所述测试图像的样本框第一标签之间的损失:

其中,a为收缩系数,c为收缩起点。

9.根据权利要求5所述的基于深度学习和判别式模型训练的目标跟踪方法,其特征在于,“使用已训练的所述深度特征提取网络从所述待跟踪图像序列的后续帧图像中提取相应的样本框特征,进而用基于二次收敛的迭代方法对上一帧的岭回归模型进行更新”的步骤包括:

给定由第t帧图像的样本框特征向量构成的矩阵及第t-1帧中训练的岭回归模型,使用基于gauss-seidel的二次收敛的迭代方法训练岭回归模型对第t帧图像的样本框特征向量进行拟合:

其中,y为第t帧图像的样本框标签构成的向量,分别为由分解得到的下三角矩阵和严格的上三角矩阵,j为迭代次数。

10.一种存储器,其中存储有程序,其特征在于,所述程序适于由处理器加载并执行,以实现权利要求1-9中任一项所述的基于深度学习和判别式模型训练的目标跟踪方法。


技术总结
本发明涉及计算机视觉和模式识别领域,具体涉及一种基于深度学习和判别式模型训练的目标跟踪方法及存储器,旨在提高目标跟踪的定位精度。本发明的跟踪方法包括:在离线训练阶段,用深度特征提取网络从训练图像和测试图像中提取样本框特征,计算训练图像的样本框标签和测试图像的样本框第一标签;根据训练图像的样本框特征与标签,利用判别式模型求解器训练得到判别式模型;根据测试图像的样本框特征,用判别式模型预测得到其第二标签;并根据第二标签与第一标签计算网络预测损失以驱动深度特征提取网络的优化学习;在在线跟踪阶段,将训练好的深度特征提取网络用于基于在线判别式模型训练的目标跟踪算法中。本发明有效提高了目标跟踪的定位精度。

技术研发人员:陈盈盈;郑林宇;王金桥;卢汉清
受保护的技术使用者:中国科学院自动化研究所
技术研发日:2020.09.04
技术公布日:2020.10.23
当前第2页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1