一种基于上下文感知特征聚集的3D目标检测方法

文档序号:31067553发布日期:2022-08-09 20:38阅读:63来源:国知局
一种基于上下文感知特征聚集的3d目标检测方法
技术领域
:1.本发明涉及计算机视觉
技术领域
:,具体涉及一种基于上下文感知特征聚集的3d目标检测方法。
背景技术
::2.近年来,深度学习的兴起极大地推动了计算机视觉领域的快速发展,在很多传统2d目标检测任务上都取得了突出的成果,但难以直接应用到更为广泛的三维场景的任务中,因此3d目标检测具有重要研究价值。3d目标检测是一种对三维场景中的物体进行定位和识别的计算机技术,目前已经成为计算机视觉在理解三维场景的重要研究方向之一,广泛应用于自动驾驶、智能机器人、增强现实等
技术领域
:,具有很重要的研究意义。3.基于点云数据的3d目标检测由于其数据格式的简单、灵活,且保留了完整的三维数据信息而受到越来越多的关注。针对点云数据,又根据不同的表示方式衍生出不同的学习方法。基于投影的方法将数据转换为图片形式,将成熟的2d目标检测方法迁移到3d领域,受限于2d目标检测框架,没有充分利用3d数据信息且可拓展性较差。基于体素的方法可以更好地提取局部特征,但是体素化的分辨率较低时容易丢失信息,分辨率较高时需要较高计算代价。基于点的方法保持输入数据为点的表示形式,与其余方法相比,具有复杂度较低、效率更高的优势,但是其捕捉和聚集局部特征的能力较弱,造成识别精度下降。技术实现要素:4.本发明的目的是为了解决现有技术存在的上述问题,提出一种基于上下文感知特征聚集的3d目标检测方法,以提升3d目标检测的识别精度。5.本发明的目的可以通过采取如下技术方案达到:6.一种基于上下文感知特征聚集的3d目标检测方法,所述3d目标检测方法包括以下步骤:7.s1、提取输入点云的局部特征点集并预测坐标和特征偏移量,过程如下:8.s101、提取输入点云的局部特征点集;9.s102、预测局部特征点集中特征点的坐标和特征偏移量;10.s103、使用局部特征点集中特征点的坐标和特征偏移量进行坐标和特征的投票操作,形成特征聚类;11.s2、根据投票操作形成的特征聚类生成优化后的搜索半径,过程如下:12.s201、对投票后的特征聚类进行采样操作得到一组聚类中心点x;13.s202、对每个聚类中心点x进行搜索得到对应的一组强关键点集;14.s203、将每组强关键点集的特征进行聚合来预测搜索半径的偏移量,生成优化后的搜索半径;15.s3、根据步骤s2中生成的优化后的搜索半径生成语义特征,过程如下:16.s301、根据该优化后的搜索半径重新对每个聚类中心进行自适应半径的最近邻搜索得到新的一组关键点集;17.s302、基于新得到的关键点集进行特征聚合操作,得到语义特征;18.s4、根据步骤s3中的语义特征进行3d目标的检测框分类和回归任务得到具有3d检测框的最终输出结果,过程如下:19.s401、根据语义特征,利用多层感知机检测框分类和回归,得到中间结果向量;20.s402、解码中间结果向量,得到一组冗余的3d检测框;21.s403、对冗余的3d检测框进行去冗余处理,得到无冗余的3d检测框的最终输出结果。22.进一步地,在步骤s101中,所述提取输入点云的局部特征点集,为缓解点云数据采样后的失真问题,采用最远点采样策略是常用的基于点云数据3d目标检测的方式。pointnet++是一种比较通用的提取点云局部特征的深度学习网络。最远点采样策略和pointnet++都是出自文献“pointnet++:deephierarchicalfeaturelearningonpointsetsinametricspace”。23.进一步地,在步骤s102中,所述预测局部特征点集中特征点的坐标和特征偏移量,由于特征点的无序性,采用多层感知机实现序列无关的特征变换是一种常用的特征点预测方式。24.进一步地,在步骤s103中,所述使用局部特征点集中特征点的坐标和特征偏移量进行坐标和特征的投票操作,本发明提出矢量损失函数,可以优化投票方向的准确性,增加训练稳定性。25.进一步地,在步骤s201中,所述对每个聚类中心点x进行搜索得到对应的一组强关键点集,使用最邻近搜索方法进行搜索是基于点的方法的常用方式。26.进一步地,在步骤s203中,所述将每组强关键点集的特征进行聚合来预测搜索半径的偏移量,生成优化后的搜索半径。在聚合时使用多层感知机和最大池化层是常用的基于点云数据3d目标检测的特征聚合方式。本发明提出半径损失函数,可以监督生成的半径,指导其尽可能覆盖物体的特征点所处的范围。使用每个聚类中心点的强关键点集聚合上下文信息生成对应的半径偏移量,提高了最近邻搜索覆盖的有效范围。27.进一步地,在步骤s301中,所述根据该搜索半径重新对每个聚类中心进行自适应半径的最近邻搜索得到新的一组关键点集,利用优化后的搜索半径对聚类中心点集进行自适应的最近邻搜索,得到不同聚类中心点对应的新关键点集,减少了噪声点,增加了有效特征点。28.进一步地,在步骤s302中,所述基于新得到的关键点集进行特征聚集操作得到语义特征,使用新的关键点集进行不同聚类中心点的特征聚合,提高了每个聚类中心点的语义特征表达能力。29.进一步地,在步骤s403中,所述对冗余的3d检测框进行去冗余处理,采用非极大值抑制(non-maximumsuppression,nms)去除冗余的检测框,然后根据检测框的尺度、朝向、中心点绘制3d检测框,得到无冗余的3d检测框的最终输出结果,是常用的基于点云数据的3d目标检测结果产生方式。30.本发明相对于现有技术具有如下的优点及效果:31.1.本发明在步骤s103中,使用局部特征点集中特征点的坐标和特征偏移量进行坐标和特征的投票操作过程中,同现有方法相比,本发明提出矢量损失函数,监督向真实方向移动,优化投票方向的准确性,增加训练稳定性,从而提高聚类准确性;32.2.本发明在步骤s203中,将每组强关键点集的特征进行聚合来预测搜索半径的偏移量,生成优化后的搜索半径,同现有方法相比,本发明提出半径损失函数,可以监督生成的半径,指导其尽可能覆盖物体的特征点所处的范围,优化了搜索范围,覆盖更多上下文有效信息,使属于聚类中心的特征更容易被捕捉;33.3.本发明在步骤s301中,根据该搜索半径重新对每个聚类中心进行自适应半径的最近邻搜索得到新的一组关键点集,同现有方法相比,本发明利用自适应半径的最邻近搜索增加关键点集的有效信息,可为下一步骤s302中生成的语义特征提升丰富度。34.4.本发明在步骤s302中,基于新得到的关键点集进行特征聚集操作得到语义特征,使用新的关键点集进行不同聚类中心点的特征聚合,同现有方法相比,新的关键点集和噪声点区分更大,有效特征聚集更紧凑,更容易被搜索到然后聚合。附图说明35.此处所说明的附图用来提供对本发明的进一步理解,构成本技术的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:36.图1是本发明实施例1中公开的3d目标检测方法的流程图;37.图2是本发明实施例2中公开的3d目标检测方法的流程图。具体实施方式38.为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。39.实施例140.本实施例公开了一种基于上下文感知特征聚集的3d目标检测方法,所述3d目标检测方法包括以下步骤:41.s1、提取输入点云的局部特征点集并预测坐标和特征偏移量:42.s101、提取输入点云的局部特征点集;43.s1011、输入原始点云,即读取点云数据集,数据集包含所有待识别目标,并存在一定数量的非识别目标,数据集共5285条记录,每个点n=(x,y,z),其中x,y,z代表了点的三维坐标。44.s1012、采用最远点采样策略,对原始点云进行采样得到输入数量一致的点云,即对点云数据中共n个特征点(n1,n2,…,nn),n》20000,采样20000个点,首先随机采样一个点,假设是特征点n1,放入集合s中,然后对于剩余的n-1个点,计算其到最新被采样的点n1的欧式距离式距离选择距离最大的点加入到s中,重复上述采样,得到20000个点。45.s1013、使用点云深度学习网络pointnet++作为骨干网络提取局部特征点,即输入20000个特征点,经过pointnet++生成1024个特征点,每个特征点的维度为256。46.pointnet++由4个集合特征抽取(setabstraction,简称sa)层和2个特征反向传播(featurepropagation,简称fp)层组成。每个sa层包含一个最远点采样(farthestpointsampling,简称fps)操作,一个最近邻搜索操作,一个多层感知机(multilayerperceptron,简称mlp)+最大池化层。47.pointnet++结构:第一sa层-》第二sa层-》第三sa层-》第四sa层-》第一fp层-》第二fp层。48.每个sa层结构:第一fps层-》第一最近邻搜索层-》第一卷积层-》第一归一化层-》第一激活函数层-》第二卷积层-》第二归一化层-》第二激活函数层-》第三卷积层-》最大池化层。49.4个sa层中的每个fps采样操作点数分别为2048,1024,512,256。每个最近邻搜索半径分别为0.2,0.4,0.8,1.2,搜索邻居数分别为64,32,16,16。每个mlp分别包含3个卷积层,2个激活函数层,2个归一化层。50.第一sa层中的第一与第二卷积层由64个1*1卷积构成,第三卷积层由128个1*1卷积构成。51.2个归一化层均为批量归一化(batchnormalization,简称bn)层,输入维度为64。52.1个最大池化层由128个1*64卷积核构成,步长为1。53.第二sa层中的第一与第二卷积层由128个1*1卷积构成,第三卷积层由256个1*1卷积构成。54.2个归一化层均为bn层,输入维度为128。55.1个最大池化层由256个1*32卷积核构成,步长为1。56.第三sa层中的第一与第二卷积层由128个1*1卷积构成,第三卷积层由256个1*1卷积构成。57.2个归一化层均为bn层,输入维度为128。58.1个最大池化层由256个1*16卷积核构成,步长为1。59.第四sa层中的第一与第二卷积层由128个1*1卷积构成,第三卷积层由256个1*1卷积构成。60.2个归一化层均为bn层,输入维度为128。61.1个最大池化层由256个1*16卷积核构成,步长为1。62.所有卷积层步长均为1。63.激活函数层均为relu激活函数层。64.每个fp层结构:一个最近邻搜索+一个三线性插值+一个mlp层。65.s102、预测局部特征点集中特征点的坐标和特征偏移量;66.将pointnet++采集的特征点输入多层感知机得到所有特征点坐标偏移量和特征偏移量。多层感知机3个卷积层、2个批量归一化层和2个激活函数层组成,其结构关系为:67.第一卷积层-》第一归一化层-》第一激活函数层-》第二卷积层-》第二归一化层-》第二激活函数层-》第三卷积层。68.3个卷积层中,第一与第二卷积层由256个1*1卷积构成,第三卷积层由259个1*1卷积构成,上述卷积层步长均为1。69.2个激活函数层均为relu激活函数层。70.2个归一化层均为bn层,输入维度为256。71.第三卷积层输出维度259中的前3维作为坐标偏移量。72.第三卷积层输出维度259中的4-259维作为特征偏移量。73.s103、使用局部特征点集中特征点的坐标和特征偏移量进行坐标和特征的投票操作,形成特征聚类。74.局部特征点集中特征点的坐标投票操作定义如下:[0075][0076]其中,表示预测的第i个点的坐标偏移量,表示经过投票后的局部特征点集中特征点坐标,pi表示投票前的特征点坐标。[0077]局部特征点集中特征点的特征投票操作定义如下:[0078][0079]其中,fi表示投票前提取的局部特征,表示预测的特征偏移量,表示经过投票后的局部特征。[0080]对投票后的局部特征点集中特征点计算误差损失函数作为监督信号,所述误差损失函数定义如下:[0081]lossvote=dist(c,g)[0082]其中,dist(·)表示计算给定点集之间的欧式距离,c表示投票后得到的局部特征中特征点集,g表示聚类中心点对应的真实物体中心构成的点集。[0083]对局部特征进行投票操作时,采用基于投票方向的矢量损失作为额外监督信号,其中,基于投票方向的矢量损失定义如下:[0084]lossvector=smoothl1(vi,ui)[0085]其中,smoothl1(·)表示l1平滑损失:[0086][0087]在本发明中beta的值为1,ui=norm(gi-pi),表示期望的投票方向矢量,gi表示真实物体中心点坐标,norm(·)表示归一化操作:[0088][0089]其中,表示预测的投票方向矢量。[0090]s2、根据投票后的特征聚类生成优化后的搜索半径:[0091]s201、对投票后的特征聚类进行采样操作得到一组聚类中心点;[0092]采用最远点采样策略,对特征聚类中共1024个特征点(n1,n2,…,n1024),采样256个点,首先随机采样一个点,假设是特征点n1,放入集合s中,然后对于剩余的n-1个点,计算其到最新被采样的点n1的欧式距离的欧式距离选择距离最大的点加入到s中,重复上述采样,得到256个聚类中心点。[0093]s202、对每个聚类中心点进行搜索得到对应的一组强关键点集;[0094]使用固定半径r=0.2对每个聚类中心点ni进行最邻近搜索得到对应的一组强关键点集,即对于每个特征点ni,计算其与其余n-1个特征点nj的欧式距离对所有距离小于r=0.2的特征点进行采样,选择距离最小的k=16个特征点作为ni的强关键点集n(i)[0095]s203、将每组强关键点集的特征进行聚合来预测搜索半径的偏移量,生成优化后的搜索半径;[0096]使用多层感知机和最大池化层进行聚合,最大池化层结构关系为:[0097]第一卷积层-》第一归一化层-》第一激活函数层-》第二卷积层-》第二归一化层-》第二激活函数层-》第三卷积层-》最大池化层。[0098]3个卷积层均由128个1*1卷积构成,步长均为1。[0099]2个激活函数层均为relu激活函数层。[0100]2个归一化层均为bn层,输入维度为128。[0101]1个最大池化层由256个1*16卷积核构成,步长为1。[0102]输入为256个特征点,每个特征点取16个邻居点,每个邻居点的特征维度是256。多层感知机将维度256降至128,最大池化层将维度进行融合由16*128变为1*128。[0103]定义如下半径损失进行监督学习,并采用梯度下降法进行反向传播;半径损失定义如下:[0104]lossradii=losspos-radii+lossneg-radii[0105]其中,表示有效检测框对应的半径损失值,mask表示正负样本的二进制掩码,用于标注过滤有效检测框,表示无效检测框对应的半径损失。μr,i表示用于聚合第i个语义特征的第i个关键点集中的所有特征点的坐标在投票前的坐标的均值,varr,i表示坐标的方差。gr,i表示第i个检测框的真实期望半径,计算第i个检测框的对应的真实检测框的对角线的1/2得到,li,wi,hi分别表示检测框所表示的长方体的长宽高。maski表示正负样本的二进制掩码的第i个值,代表第i个检测框是否有效,0无效,1有效。[0106]s3、根据步骤s2中的优化后的搜索半径生成语义特征;[0107]s301、根据该搜索半径重新对每个聚类中心进行自适应半径的最近邻搜索得到新的一组关键点集;[0108]对于每个特征点ni,计算其与其余n-1个特征点nj的欧式距离的欧式距离对所有距离小于对应优化半径ri的特征点进行采样,选择距离最小的k=16个特征点作为ni的强关键点集n(i)。[0109]s302、基于新得到的关键点集进行特征聚合操作,得到语义特征;[0110]使用多层感知机和最大池化层进行聚合,其结构关系为:[0111]第一卷积层-》第一归一化层-》第一激活函数层-》第二卷积层-》第二归一化层-》第二激活函数层-》第三卷积层-》最大池化层。[0112]3个卷积层均由128个1*1卷积构成,步长均为1。[0113]2个激活函数层均为relu激活函数层。[0114]2个归一化层均为bn层,输入维度为128。[0115]1个最大池化层由256个1*16卷积核构成,步长为1。[0116]神经网络输出(256*128)的高维向量即为语义特征。[0117]s4、根据步骤s3中的语义特征进行3d目标的检测框分类和回归任务得到具有3d检测框的最终输出结果:[0118]s401、根据语义特征,利用多层感知机检测框分类和回归,得到中间结果向量;[0119]使用多层感知机,其结构关系为:[0120]第一卷积层-》第一归一化层-》第一激活函数层-》第二卷积层-》第二归一化层-》第二激活函数层-》第三卷积层。[0121]3个卷积层中,第一与第二卷积层均由128个1*1卷积构成,第三卷积层由79个1*1卷积构成,步长均为1。[0122]2个激活函数层均为relu激活函数层。[0123]2个归一化层均为bn层,输入维度为128。[0124]多层感知机输出256个中间向量,每个中间向量维度为79,第0-1维度为检测对象分数,第2-4维度为检测框中心点坐标,第5-16维度为检测框朝向分类分数,第17-28维度为检测框朝向偏移量,第29-38维度为检测框尺度分类分数,第39-68维度为检测框尺度偏移量,第69-78维度为检测框语义类别分数。[0125]s402、解码中间结果向量,得到一组冗余的3d检测框;[0126]将中间向量各个维度的值按照对应的参数,即每个中间向量维度为79,第0-1维度为检测对象分数,第2-4维度为检测框中心点坐标,第5-16维度为检测框朝向分类分数,第17-28维度为检测框朝向偏移量,第29-38维度为检测框尺度分类分数,第39-68维度为检测框尺度偏移量,第69-78维度为检测框语义类别分数,进行拆分后,分别保存得到冗余的3d检测框。[0127]s403、对冗余的3d检测框进行去冗余处理,得到无冗余的3d检测框的最终输出结果。[0128]通过非极大值抑制(non-maximumsuppression,nms)去除冗余的检测框,然后根据检测框的尺度、朝向、中心点绘制3d检测框,得到无冗余的3d检测框的最终输出结果。[0129]假设有n个冗余检测框,设定阈值t=0.25,根据n个检测对象分数进行降序排列,scoreobjn表示检测框的检测对象分数。选取scoreobjn最高的检测框box1加入输出检测框列表s_box中,计算其余n-1个检测框与box1的3diou值,将3diou值大于t的检测框删除,从剩余检测框中选择scoreobjn最高的加入s_box中,重复上述过程得到去冗余后的3d检测框输出结果。[0130]3diou(3dintersectionoverunion):[0131][0132]得到检测框的中心点和长宽高和朝向,输入meshlab软件直接可视化。[0133]在本发明方法的执行过程中,使用对象二分类损失、语义分类损失、检测框参数损失、投票误差损失、半径损失和基于投票方向的矢量损失共同作为本发明提出的基于上下文感知特征聚集的3d目标检测方法的监督信号;使用adam梯度下降算法联合训练,直到总体损失在一定迭代轮数内不在下降或满足预设的迭代轮数,则完成联合训练,并保存联合训练后得到的参数;[0134]总体损失定义如下:[0135]loss=α×lossobjn+β×losssem-cls+lossbox+lossvote+lossradii+lossvector[0136]其中,α为实现检测框分类功能的超参数,β为实现语义分类功能的超参数。在本发明实例中,α=0.5,β=1。[0137]对象二分类损失:[0138][0139]score_obji表示第i个检测框的检测对象分数,是一个2维向量,第一维表示是对象检测框的置信度,第二维表示不是对象检测框的置信度,label_obji表示第i个检测框的真实对象标签的one-hot编码向量,维度为2,第一维是1表示是对象检测框,第二维是1表示不是对象检测框。losscross-entropy(pi,yi)表示交叉熵损失,m2表示有效的检测框个数,正负样本的二进制掩码mask中的非0元素和。[0140][0141]pi,c表示pi的第c维的值,yi,c表示yi的第c维度值,pi和yi是输入的多维向量。[0142]语义分类损失:[0143][0144]score_semi表示第i个检测框的语义类别分数,是一个向量,lobel_semi表示第i个检测框的真实语义类别的one-hot编码向量,维度为10表示10个语义类别,属于第j个类别,第j个维度为1,其余为0。[0145]检测框参数损失:包含中心点损失、朝向损失、尺度损失三个子损失。[0146]lossbox=losscenter+lossheading+losssize[0147][0148]dist(pred_centeri,label_centeri)表示计算第i个检测框中心点和真实中心点的欧式距离。pred_centeri和label_centeri分别表示三维坐标点,维度为3的向量[0149][0150]score_headingi,label_headingi分别表示检测框的朝向分类分数和真实的朝向类别的one-hot编码向量,都是维度为12的向量,计算交叉熵损失[0151][0152]pred_heading_offseti,label_heading_offseti分别表示检测框的朝向偏移量和真实的偏移量,都是一个维度为12的向量。[0153]losssize=losssize-cls+losssize-reg[0154][0155]score_sizei,label_sizei分别表示检测框的尺度类别分数和真实尺度类标的one-hot编码向量,都是一个10维度向量。[0156][0157]pred_size_offseti,label_size_offseti分别表示检测框的尺度偏移量和真实的偏移量,都是一个10维向量。[0158]投票误差损失:[0159]lossvote=dist(c,g)[0160]半径损失:[0161]lossradii=losspos-radii+lossneg-radii[0162][0163][0164]μr,i表示用于聚合第i个语义特征的第i个关键点集中的所有特征点的坐标在投票前的坐标的均值,varr,i表示坐标的方差。gr,i表示第i个检测框的真实期望半径,计算第i个检测框的对应的真实检测框的对角线的1/2得到。maski表示正负样本的二进制掩码的第i个值,代表第i个检测框是否有效,0无效,1有效。[0165]对方法运行过程中的所有参数使用adam梯度下降算法联合训练,直到总体损失在250次迭代轮数内不在下降或满足预设的迭代轮数,则完成联合训练,并保存联合训练后得到的参数。[0166]实施例2[0167]本实施例基于实施例1公开的一种基于上下文感知特征聚集的3d目标检测方法,结合实验对本发明的技术效果作进一步说明。[0168]实验环境:实验用硬件环境:cpu:16intel(r)core(tm)i9-9900k,主频:3.6ghz,内存:32g,固态硬盘:2t,gpu:geforcertx2080ti11g。软件环境:pytorch1.8.0,python3.8.11,cuda10.2,cudnn7.6.5,英伟达显卡驱动440.10。操作系统:ubuntu18.04lst。[0169]实验数据集描述:本发明实验所采用的数据集是sunrgb-d数据集,一个单视角rgb-d图像构成的数据集,可以用于三维视觉领域的相关任务。该数据集包含大约5千张rgb-d图像用于构建训练数据集,其中对每个场景中的物体均使用3d检测框进行标注,共包括37个物体种类,数据集提供的相机参数来将深度图像转化为点云表示形式,对10个最常用类别的检测性能进行评估。[0170]实验过程:分别使用本发明和现有的方案在数据集上进行检测,检测结果如表1所示:[0171]表1.本发明与现有相关3d目标检测网络的性能对比结果表[0172][0173]现有方法1:f-pointnet,由文献“frustumpointnetsfor3dobjectdetectionfromrgb-ddata”提出。[0174]现有方法2:votenet,由文献“deephoughvotingfor3dobjectdetectioninpointclouds”提出。[0175]现有方法3:mlcvnet,由文献“mlcvnet:multi-levelcontextvotenetfor3dobjectdetection”提出。[0176]表格名词解释。geo:表示只使用几何信息作为输入,即点云的坐标(20000*3)。rgb:表示使用图像特征,图像特征用2d的特征提取网络获取,然后投影到点云上20000*(3+d)。w/olossvector:表示使用了投票方向的矢量损失函数。[0177]实验评估指标:[0178][0179]其中,tp是检测结果中正确的目标个数,fp是非目标被判定为目标的个数,fn是真实的目标被判定为非目标个数,precision是精确度,recall是召回率。[0180]table、sofa、booksh、chair、desk、dresser、nightst、bed、bathtub、toilet分别代表了数据集中十种待识别的3d物体[0181]每列数字表示该类别的平均精度(averageprecision,ap)值,计算每个目标recall值对应的最大precision值,得到类似坐标点表示(recall,precision),绘制二维曲线,横轴为recall值,纵轴为precision值,所有坐标点构成曲线,曲线下面积为ap。所有类别的平均ap值(meanaverageprecision,map),该值越高代表识别精度越高,计算公式如下:[0182][0183]其中,n代表识别目标数量,在本发明的本次实验中n=10。[0184]通过该实验证明本发明的优势在于:[0185]对比f-pointnet:在不使用rgb额外信息输入的情况下,map提升了6.1。[0186]对比votenet:所有类别的ap都得到了提升,且map提升了2.4。[0187]对比mlcvnet:在10个类别中有6个类别的ap都得到了提升,且mlcvnet使用了多层特征融合结构,引入大量训练参数。[0188]矢量损失:单独验证矢量损失的有效性,且五个类别的ap得到提升,且map进一步提升0.9。[0189]上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。当前第1页12当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1