基于通道重组和注意力机制的跨模态行人重识别方法

文档序号:31620598发布日期:2022-09-23 23:08阅读:204来源:国知局
基于通道重组和注意力机制的跨模态行人重识别方法

1.本发明属于图像识别技术领域,特别涉及一种基于通道重组和注意力机制的跨模态行人重识别方法。


背景技术:

2.行人重识别是图像检索的一个子任务,目的是在一系列由独立监控摄像头拍摄的图像中寻找特定的人,即判断跨镜头下是否是同一个行人。行人重识别技术在现实生活中受到图像分辨率低、不同的光照条件及视角、行人姿态变化以及外界遮挡等许多挑战,在这些因素下,即使是同一个行人,在不同的摄像头下也会造成很大的外观差异,难以区分。现有技术中,“可见光—红外”跨模态行人重识别的数据集——sysu-mm01,采用深度零填充的方法缓解了跨模态数据信息之间的对齐问题,获得了较好的识别精度;利用双流神经网络获取不同模态之间的特征,将其映射到同一特征空间中,并使用对比损失函数来约束不同模态数据分布之间的一致性;将可见光图像信息和红外图像信息互相转换的方法以减小模态间的差异,提取相应模态下的行人图像特征;利用像素对齐的方法来缓解模态差异问题,并提出联合判别的策略来保持对齐过程中的身份一致性;利用端到端的双流超球面流形嵌入模型来约束模态内和模态间的变化;利用异质中心损失,通过约束两个异质模态之间的类内中心距离来监督网络学习跨模态图像间的不变信息,以减少类内交叉模态的变化;通过跨模态共享及非共享特征转移算法,采用多流结构的基线网络来提取特征。为了减少两种模态图像差异,也有在跨模态行人重识别中引入生成对抗网络,通过跨模态生成对抗网络(cmgan),从两种模态中学习具有判别力的特征。随着生成对抗网络(gan)的发展,基于gan网络的跨模态行人重识别方法有效地实现了图像风格的转变,进一步减小了模态差异,保留身份一致性。
3.但,现有方法通常侧重于学习全局特征,忽略了行人之间局部共享特征及同一行人不同模态图像之间的潜在关系。此外,还容易引入噪声从而影响跨模态行人重识别的准确率。注意力机制对于较大的模态差异和噪声会着重强化某一特定的信息从而忽略行人的其他特征。


技术实现要素:

4.为此,本发明提供一种基于通道重组和注意力机制的跨模态行人重识别方法,通过提取行人两个模态之间的共享特征,挖掘不同模态行人图像之间的潜在关系及行人身体不同位置之间的局部特征联系,提升跨模态行人重识别能力,具有较好的鲁棒性,便于实际场景应用。
5.按照本发明所提供的设计方案,提供一种基于通道重组和注意力机制的跨模态行人重识别方法,包含如下内容:
6.构建用于对输入数据进行特征向量提取并进行特征匹配的跨模态行人重识别模型,并利用行人图像数据集对模型进行训练,其中,跨模态行人重识别模型利用分组卷积和
通道重组操作来挖掘红外模态和可见光模态下行人的图像共享特征,利用注意力机制挖掘行人的局部特征,并利用特征向量相似度来进行特征匹配;
7.利用已训练的跨模态行人识别模型分别提取红外模态和可见光模态下的目标行人特征向量,并通过两个模态下目标行人特征向量的特征匹配来完成跨模态行人重识别。
8.作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,跨模态行人重识别模型包含:用于特征提取的resnet-50主干网络,嵌在resnet-50主干网络中用于分组卷积和通道重组的模态内特征通道分组重组模块,用于挖掘模态内特征通道分组重组模块输出特征向量中局部特征的聚合特征注意力模块,及用于对不同模态下特征信息进行交互融合的跨模态自适应图结构模块。
9.作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,模态内特征通道分组重组模块中,首先,对resnet-50主干网络获取的特征图进行分组,每组分别进行卷积运算后再进行特征拼接,将拼接后的特征作为分组卷积操作的输出特征;然后,对分组卷积操作输出特征进行通道重组,通过融合多通道特征来获取含有判别力的特征图。
10.作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,分组卷积操作处理过程表示如下:其中,yi表示每个分组卷积输出的特征,x表示输入特征,wj,bj分别表示每个分组卷积的权值和偏置值,f表示relu激活函数,n表示输出特征个数,g表示分组数。
11.作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,通道重组操作中,将特征分为n组,总通道数设置为n
×
m,首先,按照通道维度拆分为[n,m]两个维度,并进行第一次特征维度重塑;随后,将两个维度进行转置操作,得到[m,n];最后,通过第二次特征维度重塑。
[0012]
作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,通道重组操作处理过程表示如下:f(x)=f
r2
(f
t
(f
r1
(x))),其中,f
r1
代表第一次特征维度重塑,f
t
代表转置操作,f
r2
代表第二次特征维度重塑。
[0013]
作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,利用注意力机制挖掘行人局部特征中,利用通道注意力机制及空间注意力机制获取输入特征的第一特征映射,利用位置注意力机制获取输入特征的第二特征映射;将第一特征映射和第二特征映射进行相加来获取作为输出的特征映射。
[0014]
作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,通道注意力机制生成的通道注意力特征图表示为:ac=σ[w1x
mp
;w2x
ap
],其中,[;]表示沿通道拼接操作,σ(g)表示sigmoid函数,x
mp
、x
ap
分别表示经过两次池化处理后的特征映射,w1、w2分别表示全连接层参数;空间注意力机制生成的空间注意力特征图表示为:其中,表示进行卷积核为1
×
1的卷积运算;依据输入及通道注意力特征图和空间注意特征图来获取第一特征映射;位置注意力机制生成的位置注意力特
征图表示为:其中,a
i,j
表示i位置对j位置的影响,表示i位置对j位置的影响,分别表示将特征映射x划分为p个非重叠部分后并通过卷积得到的特征图,表示由与相乘得到的局部注意力特征图,w
p
代表不同部分的可学习权重向量;并依据输入及位置注意力特征图来获取第二特征映射。
[0015]
作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,特征匹配中,利用自适应图结构来聚合模态间属于同一个体的行人特征,将具有相同身份的上下文信息和跨模态的图像之间关系进行结合,通过学习两个不同模态间的关系来获取最终输出的特征向量,其中,自适应图结构表示为:ag为规范化邻接矩阵无向图,li与lj分别为图节点与对应的独热编码,||k为一个与自身构成的矩阵。
[0016]
作为本发明基于通道重组和注意力机制的跨模态行人重识别方法,进一步地,模型训练中,利用n个不同身份的行人且每个行人包含m各可见光图像和m个红外图像来构建红外模态和可见光模态下的行人图像数据集,训练的目标损失函数表示为:l=lb+le,其中,lb=l
tri
+l
id
,l
tri
为跨模态三元组损失,l
id
为身份损失,e为训练次数,代表前一个训练轮次的平均损失值,代表当前轮次模态内聚合特征学习损失值,代表当前轮次跨模态自适应图结构约束数值。
[0017]
本发明的有益效果:
[0018]
本发明通过提取行人两个模态之间的共享特征,挖掘不同模态行人图像之间的潜在关系及行人身体不同位置之间的局部特征联系,通过获取行人图像更丰富的局部特征来实现模态信息的交互融合,进而提升跨模态行人重识别效果;并进一步在常用数据集上进行试验验证,本案方案具有较好的鲁棒性和实用性。
附图说明:
[0019]
图1为实施例中基于通道重组和注意力机制的跨模态行人重识别流程示意;
[0020]
图2为实施例中跨模态行人重识别模型框架示意;
[0021]
图3为实施例中模态内特征通道分组重组模块示意;
[0022]
图4为实施例中聚合特征注意力机制模块示意;
[0023]
图5为实施例中通道注意力模块示意;
[0024]
图6为实施例中空间注意力模块示意;
[0025]
图7为实施例中位置注意力模块示意。
具体实施方式:
[0026]
为使本发明的目的、技术方案和优点更加清楚、明白,下面结合附图和技术方案对本发明作进一步详细的说明。
[0027]
本发明实施例,参见图1所示,提供一种基于通道重组和注意力机制的跨模态行人重识别方法,包含如下内容:
[0028]
s101、构建用于对输入数据进行特征向量提取并进行特征匹配的跨模态行人重识别模型,并利用行人图像数据集对模型进行训练,其中,跨模态行人重识别模型利用分组卷积和通道重组操作来挖掘红外模态和可见光模态下行人的图像共享特征,利用注意力机制挖掘行人的局部特征,并利用特征向量相似度来进行特征匹配;
[0029]
s102、利用已训练的跨模态行人识别模型分别提取红外模态和可见光模态下的目标行人特征向量,并通过两个模态下目标行人特征向量的特征匹配来完成跨模态行人重识别。
[0030]
通过提取行人两个模态之间的共享特征,挖掘不同模态行人图像之间的潜在关系及行人身体不同位置之间的局部特征联系,通过获取行人图像更丰富的局部特征来实现模态信息的交互融合,进而提升跨模态行人重识别效果。
[0031]
进一步地,本案实施例中的跨模态行人重识别模型,参见图2所示,包含:用于特征提取的resnet-50主干网络,嵌在resnet-50主干网络中用于分组卷积和通道重组的模态内特征通道分组重组模块,用于挖掘模态内特征通道分组重组模块输出特征向量中局部特征的聚合特征注意力模块,及用于对不同模态下特征信息进行交互融合的跨模态自适应图结构模块。
[0032]
resnet和cnn是很相似的,只是在cnn上面增加了shortcut。常见的resnet-50网络结构有四组大block,每组分别是3、4、6、3个小block,每个小block里面有三个卷积,网络最开始有一个单独的卷积层,因此,可表示为(3+4+6+3)*3+1=49,最后又一个全连接层,因而,一共50层。本案实施例中,主干网络可采用resnet-50提取行人图像的特征;模态内特征通道分组重组模块(icgr)被嵌入到resnet-50共享层中以更高效地提取跨模态图像的共享特征;聚合特征注意力机制(afa)和跨模态自适应图结构(cgsa)用来获取行人图像更丰富的局部特征,实现模态信息的交互融合。
[0033]
模态内特征通道分组重组模块(icgr)中,首先对输入特征x
in
进行分组卷积操作,在减少参数量的同时增加相邻特征图之间的相关性,然后对输出特征进行通道重组以融合多通道特征信息,获取更具有判别力的特征图,最后得到整个模块的输出特征x
out

[0034]
分组卷积不同于一般意义上的标准卷积,分组卷积需要先对输入的特征图(feature map)进行分组,然后每组分别进行卷积运算,最后将每组卷积运算后特征进行拼接作为分组卷积的输出。分组卷积的计算公式如下所示:
[0035][0036]
其中yi表示每个分组卷积输出的特征,x表示输入特征,wj,bj分别表示每个分组卷积的权值和偏置值,f表示relu激活函数,n表示输出的特征个数,g表示分组数。
[0037]
由于分组卷积中每个组都是独立进行卷积运算,这种运算方式会导致各组之间无信息共享。通道重组操作通过对分组卷积之后的特征图以均匀打乱的方式进行特征图重
组,以保证分组卷积层之后的网络层输入来自不同的组。因为通道重组融合了多通道的特征信息,所以输出的特征图更具有判别力。
[0038]
具体地,通道重组首先将输入特征分为n组,总通道数为n
×
m,首先按照通道维度拆分为[n,m]两个维度,即第一次特征维度重塑;随后将两个维度进行转置操作得到[m,n];最后进行第二次特征维度重塑得到一个通道维度n
×
m。通道重组如公式(2)所示:
[0039]
f(x)=f
r2
(f
t
(f
r1
(x)))
ꢀꢀꢀ
(2)
[0040]
其中f
r1
代表第一次特征维度重塑,f
t
代表转置操作,f
r2
代表第二次特征维度重塑。
[0041]
参见图3所示,该模块可由n个分组卷积层及通道重组操作构成。该模块以提取到的可见光图像特征x
rgb
或红外图像特征x
ir
作为输入x
in
,首先将输入特征x
in
均分为n组进行卷积,得到n个输出记为y1,y2···yn
,然后将其沿通道方向进行拼接得到通过分组卷积后的特征图x
in
'。将x
in
'进行第一次特征维度重塑f
r1
,随后进行转置操作f
t
,最后进行第二次特征维度重塑f
r2
得到模块输出x
out

[0042]
在行人重识别任务中,注意力机制可以抑制无关的背景信息对特征的影响,关注行人相关的特征。然而,当两种模态之间图像差异过大时,网络模型易受到噪声的干扰难以挖掘更加具有判别力的局部特征,从而影响行人重识别的识别精度。为解决该问题,本案实施例中,利用聚合特征注意力模块(afa),如图4所示,该注意力机制分为两个分支,其中一个分支包含通道注意力模块(cam),空间注意力模块(sam),另一个分支为位置注意力模块(pam)。给定输入特征为首先x通过第一个分支中通道注意力模块(cam),得到特征映射xc,然后通过空间注意力模块(sam),得到特征映射xs;另一分支中,x通过位置注意力模块(pam),得到特征映射xp;最后将上述所得到的特征映射xs,xp相加,最终特征映射为:
[0043]
x
out
=xs+x
p
ꢀꢀꢀ
(3)
[0044]
afa旨在挖掘不同模态行人图像之间的潜在关系,提高局部特征的表示能力及模型的抗干扰能力。
[0045]
通道注意力能够通过赋予每个通道不同的权重系数以增强具有显著性特征的通道和抑制不重要的通道。为此,可利用通道注意力模块来构建通道之间的相互关联并获取各通道信息的重要程度。如图5所示,该通道注意力模块由两个池化层(全局平均池化和全局最大池化)、两个全连接层和一个sigmoid层构成。给定输入特征映射为其中c表示通道数,h、w分别表示特征映射的高和宽。该通道注意力模块生成的通道注意特征图为:
[0046]ac
=σ[w1x
mp
;w2x
ap
]
ꢀꢀꢀ
(4)
[0047]
式中,[;]表示沿通道拼接操作;σ(g)表示sigmoid函数;x
mp
、x
ap
分别表示经过全局最大池化和全局平均池化处理后的特征映射;分别表示全连接层的参数,其中r表示降维比。
[0048]
在得到通道注意力特征图ac后,将输入特征映射与ac相乘得到该通道注意力模块最终输出特征映射xc=xe ac。
[0049]
空间注意力特征能够使网络在关注行人图像中最显著区域特征的同时,抑制背景
干扰信息。如图6所示,本案实施例中的空间注意力模块包含了两个池化层(全局最大池化和全局平均池化)、一个卷积核大小为1
×
1的卷积层和一个sigmoid层。
[0050]
给定一个特征映射空间注意力模块产生的空间注意力特征图为:
[0051][0052]
式中σ(g)表示sigmoid函数;表示进行卷积核为1
×
1的卷积运算;[;]表示沿通道拼接操作;x
mp
、x
ap
分别表示经过全局最大池化和全局平均池化处理后的特征映射。
[0053]
在得到空间注意力特征图as后,将输入特征映射与as相乘得到该空间注意力模块最终输出特征映射xs=xe as。
[0054]
位置注意力特征能够对差异性特征信息进行合理约束,提升网络挖掘相似特征信息的能力,从而获得更丰富的局部特征。为此,本案实施例中,利用位置注意力模块来加强模型对行人图像信息的挖掘能力。如图7所示,该模块包含三个卷积核大小为1
×
1的卷积层,一个归一化层(bn),一个可学习权重向量w
p
。给定一个特征映射其中c代表通道维度,h和w分别代表特征图大小。位置注意力特征图a
p
如下所示:
[0055][0056]
其中,a
i,j
是指i位置对j位置的影响;分别表示将特征映射划分为p个非重叠部分后通过卷积的特征图;与相乘得到局部注意力特征图w
p
代表不同部分的可学习权重向量。
[0057]
在得到位置注意力图a
p
后,将输入特征图经过全局自适应池化、归一化操作后与a
p
相加,该位置注意力模块最终的输出特征映射为:
[0058]
x
p
=b(xo)+a
p
ꢀꢀꢀ
(7)
[0059]
其中xo代表输入特征图x的全局自适应池化输出,b(g)为批归一化操作。
[0060]
由于可见光-红外行人重识别的数据集中存在较多错误标注的图像以及可见光-红外模态图像对视觉差异较大,导致模型无法充分学习辨别性局部特征,破坏了优化过程。本案实施例中,通过引入自适应图结构约束模块用于跨模态行人重识别问题,主要用于聚合模态间属于同一个体的行人样本。
[0061]
图注意力可以衡量单节点i对另一模态中节点j的重要性。可用池化层的输出表示输入节点特征。图关注系数如下式所示:
[0062][0063]
其中γ(
·
)代表leakyrelu操作,(,)表示连词运算,h(
·
)表示一个变换矩阵,用
于将输入节点特征维度c缩减为d的变换矩阵,在实验中可设置d为256,代表一个可学习的权重向量,用来衡量不同特征维度在串联特征中的重要性,ag为规范化邻接矩阵的无向图。
[0064]
对于每一输入批次中随机选择的n个行人样本,对每个行人样本随机选择m张可见光图像和m张红外图像,从而在每个训练批次中都产生k=2*n*m个图像。用归一化邻接矩阵表示图结构,如公式9所示:
[0065][0066]
其中li与lj分别为图节点与对应的独热编码(one-hot lables),||k是一个与自身构成的矩阵,表示每个节点都与其自相连。
[0067]
将具有相同身份的上下文信息和跨模态的图像之间的关系结合起来,可以用来增强表征。通过学习两个不同模态间的关系,结合跨模态两种模式的结构关系来加强特征表示,最后输出特征表示为:
[0068][0069]
其中m表示当前输入批次样本数,c表示最后一个池化层输出的特征维度。
[0070]
网络训练过程中的每一个批次包含n个不同身份的行人,其中每个行人包含m个可见光图像和m个红外图像,因此一个批次总计2*n*m个样本。针对每个样本x,选择另一种模态的正样本x
i-p
,相同模态的负样本x
i-n
组成跨模态三元组。例如:对于可见光图像特征t

rgb
,选择红外模态的正样本t

ir-p
,可见光模态的负样本t

rgb-n
组成跨模态三元组;对于红外图像特征t

ir
,选择可见光模态的正样本t

rgb-p
,红外模态的负样本t

ir-n
组成跨模态三元组。跨模态三元组损失公式如下:
[0071][0072]
式中距离度量d选择欧氏距离,margin为阈值。
[0073]
跨模态三元组损失l
tri
拉近不同模态的正样本对之间的距离d(t

rgb
,t

ir-p
)和d(t

ir
,t

rgb-p
),同时推远相同模态负样本对之间的距离d(t

rgb
,t

rgb-n
)和d(t

ir
,t

ir-n
)。
[0074]
身份损失针对属于同一类别的样本图像,可以引导网络模型学习到更相似的行人特征图,在样本图像的语义特征空间减小类内距离。身份损失使用交叉熵函数,具体形式如下:
[0075]
l
id
(xi)=yilog(pi)+(1-yi)log(1-pi)
ꢀꢀꢀ
(12)
[0076]
对于每个样本xi,其对应的行人身份标签为yi,使用分类器网络预测样本xi属于该身份类别的概率pi。
[0077]
跨模态三元组损失l
tri
优化了两种模式下不同人物图像之间的三重态关系,身份损失l
id
引导网络模型学习到更相似的行人特征图。可采用的学习判别特征部分包括跨模态三元组损失[40]和身份损失。总的损失函数可表示为:
[0078]
lb=l
tri
+l
id
ꢀꢀꢀ
(13)
[0079]
为更好地解决跨模态行人重识别任务中行人图像特征差异较大的问题,可将以上
提出的聚合特征注意力机制(afa)和跨模态图形结构化注意力模块整合。由于这两个部分侧重于不同学习目标,如果直接将它们的损失函数进行简单组合用于监督网络训练,跨模态自适应图结构约束模块部分将会十分不稳定。
[0080]
为了解决上述问题,可采用动态多注意聚合学习的方法。具体实现如下,将整个联合学习框架分解为两个不同的任务,分别作用于模态内聚合特征学习损失l
p
和跨模态自适应图结构约束模块lg两部分。其中l
p
是学习目标lb和聚合特征注意力机制(afa)提出损失l
p-c
的组合。即:
[0081][0082]
l
p
=lb+l
p-c
ꢀꢀꢀ
(15)
[0083]
其中,n代表每一批次的图片数量;p表示特征被正确分类的概率;yi表示输出的图片特征;表示输入的图片特征。
[0084]
为了引导跨模态自适应图结构的学习,可选择负对数似然损失作为跨模态自适应图结构约束模块部分的损失表示,其损失函数定义为:
[0085][0086]
其中为通过图卷积操作后的输出特征。
[0087]
受多任务学习的启发,动态多注意力聚合学习策略实际上是将l
p
视为主要损失,然后逐步添加学习损失lg进行优化。这样做的主要原因是,在训练阶段早期,可以更简单地学习到作用于图像级部分聚合特征。在通过监督网络学习一段时间后,引入跨模态间的全局特征学习损失lg可以对网络进一步优化,而不会导致过分剧烈的震荡。动态多注意力聚合学习损失表示为:
[0088][0089]
其中,e为训练次数,代表前一个训练轮次的平均损失值,代表当前轮次模态内聚合特征学习损失值,代表当前轮次跨模态自适应图结构约束数值。
[0090]
学习目标结合学习判别特征lb及动态多注意聚合损失le总和。即模型训练的目标
[0091]
函数可表示为:
[0092]
l=lb+leꢀꢀꢀ
(18)
[0093]
为验证本案方案有效性,下面结合试验数据做进一步解释说明:
[0094]
与现有的跨模态行人重识别方法进行比较,在susy-mm01数据集上的两种查询模式,本案方案在性能相较于现有技术有着一定程度的提高。dca-net在具有挑战性的sysu-mm01数据集全局查询模式下实现了59.23%的rank-1精度和56.55%的map准确率。特别地,相比于先进方法ddag,在all-search下,dca-net的rank-1精度和map分别提高了4.48%和3.53%。在regdb数据集上所提出的模型在两种查询设置中都获得了较高的性能,对于可见光到红外查询设置,rank-1和map的数值分别为78.16%和71.18%。
[0095]
为了评估dca-net中每个组件的有效性,在sysu-mm01数据集上进行了消融实验。
具体地,以由resnet-50、跨模态三元组损失、身份损失组成的网络模型作为基线(baseline),并在此基础上构建了以下3个网络:(1)baseline+cgsa;(2)baseline+cgsa+afa;(3)baseline+cgsa+afa+icgc。消融实验结果如表1所示。
[0096]
表1在sysu-mm01数据集上的消融实验研究
[0097][0098]
从表1可以看出,在sysu-mm01数据集上,与baseline相比,baseline+cgsa的rank-1精度提升了2.57%,map提升了2.09%。这说明cgsa能够有效提高基线网络的性能。在sysu-mm01数据集上,与baseline+cgsa相比,baseline+cgsa+afa的rank-1精度提升了6.98%,map提升了4.69%,这充分说明afa模块能够有效提升网络性能;与baseline+cgsa+afa相比,baseline+cgsa+afa+icgc的rank-1精度提升了1.50%,map提升2.13%,这充分说明icgc模块能够进一步提升网络的性能。
[0099]
另外,对本案dca-net与ddag的计算时间和参数量进行比较。如表2所示,其中时间代表的是每一个epoch所用的时间。从表2中可以看出,相比ddag模型,本案所提方案的训练时间更短,训练模型所占内存只增加了1.52mb,几乎可以忽略不计,总体而言相较于ddag模型来说并未引入额外较大的计算开销。
[0100]
表2模型复杂性分析
[0101]
model模型所占内存(mb)训练时间(s)ddag362.48299.82dca-net364237.07
[0102]
经过上述的试验验证,本案方案具有较好的鲁棒性和实用性,能够取得较好的行人重识别效果,便于行人图像检索分析等实际场景中的应用。
[0103]
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对步骤、数字表达式和数值并不限制本发明的范围。
[0104]
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1