一种基于预测置信度的细粒度分类去噪训练方法与流程

文档序号:33090150发布日期:2023-01-31 22:54阅读:46来源:国知局
一种基于预测置信度的细粒度分类去噪训练方法与流程

1.本发明涉及细粒度图像分类技术领域,具体为一种基于预测置信度的细粒度分类去噪训练方法。


背景技术:

2.含噪数据集中的噪声通常被分为两类:第一种噪声是分布内噪声,即样本本身的真实标签属于数据集的标签集合,但是误标为数据集其他标签;第二种噪声是分布外噪声,样本的真实标签并不在数据集的标签集之中。分布外噪声样本的图像内容往往只与标签标注的情况存在微弱但是不符合标注原则的联系,有些甚至完全没有任何关系。若是一个数据集同时含有上述两类噪声,则称为开集含噪数据集。自然条件下获得的含噪数据集几乎都是开集数据集,闭集数据集反而十分少见。
3.研究界已经提出多种思路处理训练数据集中含有噪声的问题。一类方法被称为“损失校正”(loss correction)或标签校正(label correction)。损失校正的常规做法是在神经网络模型训练过程中对损失值添加某种修正以避免过拟合分布内噪声样本。也有一些方法以学习噪声转移矩阵的形式纠正分布内噪声,但是却无法同时正确地处理分布外噪声,且大规模数据上效果并不理想,分布外噪声的真实标签并不在数据集的标签定义域中,使用噪声转移矩阵强行校正分布内噪声样本的标签结果难料。


技术实现要素:

4.本发明提出使用一种基于预测置信度的神经网络去噪训练方法,缓解在含噪数据集上训练细粒度图像分类模型困难的问题。
5.为实现上述目的,本发明提供如下技术方案:一种基于预测置信度的细粒度分类去噪训练方法,包括包括如下步骤:s1.首先利用所有的训练样本参与预热训练,并将每个样本近几次预测结果记录下来作为历史预测集合;s2.通过历史预测集合产生的直方图生成各个样本的归一化预测置信度具体如下:s21. 通过公式(6.1)计算出预测标签相对于总体预测次数的直方图;s22.根据历史预测结果推断正确标签的置信度;s23.在交叉熵的基础上执行归一化操作;s3.采用归一化预测置信度来平衡样本标签和样本预测的权重,动态校正损失值。
6.进一步的,在s1中,训练的开始时必须首先经过若干轮预热训练,在预热训练过程完成后对训练集d中的各个样本 , 执行推理并获得预测结果,n 是
数据集的样本数量;推理过程从两个卷积神经网络构成的骨干网络输出中分别获得 softmax 概率分布向量,然后计算预测结果;记为样本图像 最近 轮训练的历史预测序列,记 为各个样本图像 的预测置信度;基于预测置信度的动态校正损失用 平衡标签独热编码和预测的权重后的结果与神经网络输出计算交叉熵得到校正后的损失值;在训练过程中,预测置信度较高的样本会被选择组成实际参与训练的训练样本集 ;含有 个训练实例的样本集以他们被校正后的损失值更新细粒度图像分类神经网络模型。
7.更进一步的,深度神经网络倾向于拟合干净和简单的样本,并随后开始适应困难样本和噪声样本;使用所有训练样本 d在前
ꢀꢀ
轮循环中先使用预热策略训练目标神经网络;训练使用的使用交叉熵损失公式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.2)其中,表示样本的标签,公式 (6.2) 中的交叉熵损失 用在预热阶段更新神经网络;式中表示最后一层softmax层的输出向量,以公式 (6.3) 计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.3)公式中的表示神经网络的映射函数, 是最后一层softmax层之前的全连接层的输出,k 是数据集的类别数,为网络参数,各个样本图像对应的推理结果计算用公式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.4)在整个训练过程中,记录和更新训练集中每个样本图像在在近轮训练中的预测情况,记为,为网络对样本图像在第t轮(即当前轮)训练中的预测标签。
8.更进一步的,在预热训练阶段结束之后,使用训练过的神经网络对训练样本d 中的样本执行一次预测并随后建立并更新历史预测序列;训练样本d中的所有训练样本的pfl损失用均公式(6.15)计算;在训练完成后,一般情况下使用比值 δ(%) 控制丢弃样本的个数,即被判定为分布外噪声样本占总样本数的比例,可选择pfl损失排名前 的训练样本组成新的训练样本集执行神经网络模型的更新,预热训练后各轮训练使用的新选择出的训练样本集合的产生过程如公式(6.5)所示:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.5)
其中表示样本的损失,干净样本和分布内噪声样本由公式 (6.5) 在全局样本选择阶段被选入本轮训练的训练集;为了避免错误排除有用样本,基于预测稳定性度量的损失较高的样本仅在当前轮训练被排除在训练集外,但是下一轮全局样本选择时会重新计算全部样本的归一化预测置信度,并更新历史预测序列,过程公式为:
ꢀꢀꢀꢀꢀꢀ
(6.6);是样本图像对应的标签。
9.更进一步的,在s21中,由于含有噪声的训练数据中分布外噪声样本与干净样本和分布内噪声样本内容无关,分布外噪声样本的预测结果会在早期训练过程中不断改变,令
ꢀꢀ
表示样本在历史预测结果序列中被预测为标签j的频率且,k 是数据集的类别数;可通过公式(6.1)计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.1)其中,是样本图像的预测结果, 是其历史预测结果集的大小,即预测的总次数,即为预测标签相对于总体预测次数的直方图。
10.更进一步的,在s22中,样本标签在预测历史中出现的频率与该标签是真实标签的可能性在统计上呈正相关关系;这种预测结果属于真实标签的可能性定义为根据历史预测结果推断正确标签的“置信度”;熵的概念与置信度概念比较吻合,可用来表达各个样本图像 的预测结果不确定程度,其形式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.7)表示样本 在历史预测结果序列中被预测为其中频率最高的标签y的频率,预测历史的直方图特性反映了推理历史对标签归属的不确定程度,可用下列公式描述当预测历史的不确定度最大时最小的情形:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.8)其中,k代表数据集中的标签总类别数,代表预测历史序列的长度;在常用的网络图像细粒度分类数据集中,数据集中的标签类别数远远大于实际历史预测记录的长度设置,即;所以,,可得到历史预测最大不确定度的计算方法,其公式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.9)。
11.更进一步的,在s23中,单纯采用交叉熵存在使用上的不便,交叉熵本身存在下界,但是不同情况下交叉熵的上界差异很大较大,所以需要在交叉熵的基础上执行归一化操作;已知最大历史预测不确定度计算方法,可以定义用于归一化上述历史预测不确定性,使其取值范围恒定在之间以方便度量; 的形式见公式 (6.10) :
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.10)综上所述,我们可以为各个输入的样本根据预测历史计算和更新预测置信度,样本图像的归一化预测置信度定义如公式(6.11)所示:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.11)。
12.进一步的,在s3中,处理噪声样本的常规思路是通过为噪声的分布建模将噪声样本识别出来,一般采用“损失校正”方法;神经网络的基础损失函数采用交叉熵,添加额外目标分为两种基本方式:一种为软方案,另一种为硬方案;“软方案”的详细结构如公式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.12)q为神经网络输出的预测向量,t为噪声标签向量,l为标签总类别数,β为取值范围恒定在 之间的超参数,与“软方案”相对应的是硬方案,将回归目标改为已知 ,即已知 为q中最大值的情况下 的极大后验概率,记为,形式公式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.13)选用一个合适的损失校正方法后,使用随机梯度下降优化工具更新网络参数。
13.更进一步的,使用损失函数更新神经网络,在训练过程中很快开始过拟合噪声样本从而导致性能下降;因此需要考同时使用标签和预测结果补偿损失值以缓解神经网络向噪声拟合的倾向,当带入补偿时,公式 (6.2 可被改写为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.14)是样本图像对应的标签,是其预测结果,是公式(6.3)定义的最后一层 softmax 层输出,一般情况下,参数
ꢀꢀ
往往被设定为固定值,如
ꢀꢀ
= 0.8,以静态地平衡标签和预测结果。
14.更进一步的,利用公式 (6.11) 定义的归一化预测置信度 动态地确定各个样本标签和预测结果之间的权重关系,达到动态校正损失值的目的;公式 (6.14) 可通过引入公式 (6.11) 改写成基于预测不确定性的动态损失,具
体为 :
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.15)其中,利用了归一化预测置信度 动态地调节了当前损失值的补偿程度;公式(6.15)称为基于预测置信度的动态损失,简写为pfl损失(prediction fidelity loss)。
15.与现有技术相比,本发明的有益效果是:在本技术中,使用一种基于预测置信度的动态损失代替常用的交叉熵损失,用来区分分布外噪声和其他样本(干净样本和分布内噪声),能更好地去除分布外噪声;使用一种根据预测置信度实现分布内噪声校正并识别分布外噪声的方法,对历史预测结果进行分析并动态地校正损失值以达到缓解分布内噪声对训练干扰的目的;在含噪数据集上训练模型时,利用预测置信度进行全局样本选择,将上述的策略集成到一个简单有效的含噪数据集细粒度图像分类训练框架中,实现了在一个框架内通过损失校正和全局样本选择策略进行去噪训练,明显提升了细粒度视觉识别模型的分类精度。
附图说明
16.图1为本发明基于预测置信度的含燥细粒度图像分类算法流程图。
具体实施方式
17.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
18.请参照图1所示,本发明为一种基于预测置信度的细粒度分类去噪训练方法,基于预测置信度的含噪细粒度分类去噪算法方法主要分为两个部分:其一是基于预测置信度的动态损失校正,其二是基于预测置信度的全局样本选择,通过在一个框架内结合上述两者达到有效地提高从互联网含噪图像数据集中学习细粒度图像分类模型的能力;在训练阶段,方法的框架可以简单描述为:定义为训练数据集d中的编号为i样本,其中是图像而是其对应的标签。可知且k是数据集中的类别数,而且n数据集的样本数量,由于在原始的训练集中存在噪声,并不总是对应的真实标签,假设,是样本图像的真实标签,当样本是干净样本时有,当样本是一个分布内噪声时我们应当将噪声样本校正为正确的标签即用替换,而当样本为分布外噪声时应当从训练集中丢弃。
19.本发明的算法的总体框架如图 1 所示,在训练的开始时必须首先经过若干轮预热训练,在预热训练过程完成后对训练集d的各个样本
ꢀꢀ
,
ꢀꢀ
执行推理并获得预测结果,推理过程从两个卷积神经网络构成的骨干网络输出中分别获得
softmax概率分布向量,然后即计算预测结果,记为样本图像最近轮训练的历史预测序列,记 为各个样本图像的预测置信度,那么,基于预测置信度的动态校正损失就即用 平衡标签独热编码和预测的权重后的结果与神经网络输出计算交叉熵得到校正后的损失值,在训练过程中,预测置信度较高的样本会被选择组成实际参与训练的训练样本集 ;一般情况下使用比值 控制丢弃样本的个数,即被判定为分布外噪声样本占总样本数的比例。最终,含有个训练实例的样本集以他们被校正后的损失值更新细粒度图像分类神经网络模型。
20.在本实施例中,由于含有噪声的训练数据中分布外噪声样本与干净样本和分布内噪声样本内容无关,这些分布外噪声样本的预测结果会在早期训练过程中不断改变。考虑数据集中仅存在分布内噪声样本和干净样本的情况,令表示样本在历史预测结果序列中被预测为标签j频率且,k 是数据集的类别数;可通过公式(6.1)计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.1)其中,是样本图像的预测结果, 是其历史预测结果集的大小,即预测的总次数,即为预测标签相对于总体预测次数的直方图。
21.样本标签在预测历史中出现的频率与该标签是真实标签的可能性在统计上呈正相关关系。这种预测结果属于真实标签的可能性定义为根据历史预测结果推断正确标签的“置信度”。
22.熵的概念与上述要表达置信度概念比较吻合,可以用来表达各个样本图像的预测结果不确定程度,其形式见公式 (6.7):
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.7)预测历史的直方图特性反映了推理历史对标签归属的不确定程度,越是平坦的直方图分布不确定性越强,而越是集中的直方图分布不确定性越弱。公式 (6.8) 描述了当预测历史的不确定度最大时 最小的情形:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.8)其中,k代表数据集中的标签总类别数,代表预测历史序列的长度。在常用的网络图像细粒度分类数据集中,数据集中的标签类别数(多数会超过百类)远远大于实际历史预测记录的长度(10 左右)设置,即。所以,在通常情况下可以认为,根据上述分析,可以得到历史预测最大不确定度的计算方法,见公
式 (6.9) 所示:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.9)单纯采用交叉熵存在使用上的不便,交叉熵本身存在下界但是不同情况下交叉熵的上界差异很大较大,所以需要在交叉熵的基础上执行归一化操作。已知最大历史预测不确定度计算方法,可以定义用于归一化上述历史预测不确定性,使其取值范围恒定在 之间以方便度量:的形式见公式为:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.10)综上,我们可以为各个输入的样本根据预测历史计算和更新预测置信度,样本图像的归一化预测置信度定义如公式(6.11)所示:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.11)。
23.在本实施例中,处理噪声样本的常规思路是通过为噪声的分布建模将噪声样本识别出来。精确地为噪声建模在很多情况下比较困难,在大量样本中为噪声进行建模也不都能取得十分显著的效果。显式地提出噪声的分布情况或给出重构误差往往不符合实际情况,而且在大规模数据训练神经网络场景下这种做法也并不常见,所以基于模型的方法逐渐被其他方法替代。处理含噪数据训练问题的常见做法是在损失函数上添加一些项使损失函数可以在一定情况下少受噪声样本带来的影响,上述思路一般被称为“损失校正”方法。
24.实现损失校正的思路是根据当前的神经网络状态动态地调整训练的目标实现,可以引入 bootstrapping 策略,其主要做法是:在模型现有状态下动态地更新预测目标,该预测目标是错误的标签向量与神经网络当前预测输出的结果之间的凸组合(convex combination)。随着训练过程的不断推进,神经网络应该更加倾向于信任当前的预测输出结果。由于训练样本集中本就存在规模占优的正确样本而使得训练后的网络预测结果与错误标签保持一定的差异,所以上述方法最终能够减轻错误标注的样本对训练造成的影响。
25.按照常见的方案,目标神经网络的基础的损失函数采用的是交叉熵,基础损失函数上需要添加一个额外的优化目标反映模型的当前状态。而添加额外目标一般分为两种基本方式:一种是直接使用神经网络输出的预测向量,被称为软方案;而使用预测向量生成的预测结果(one-hot 标签)的方法称为硬方案。“软方案”的详细结构如公式 (6.7) 所示:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.12)可以证明,采用公式 (6.12) 的最终的优化目标等价于带最小熵正则项的 softmax 回归,最小熵正则项的功能是促使模型更倾向于预测标签。与“软方案”相对应的是硬方案,这种方案将回归目标改为已知 的情况下 的极大后验概率,记为 ,形式如公式 (6.13) :
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.13)
选用一个合适的损失校正方法后,接下来执行的是正常的神经网络优化过程,将数据分批送入神经网络中,使用随机梯度下降等优化工具更新网络参数。网络参数更新的模式类似于一个 em 算法的过程,在期望阶段利用原始标签与模型预测标签的凸组合估计出样本对应的置信标签(校正标签),在最大化阶段更新网络参数使模型更好的预测出上一步产生的标签。
26.如果直接使用损失函数更新神经网络,网络就会在训练过程中很快开始过拟合噪声样本从而导致性能下降。因此需要考虑采用 bootstrap 策略,同时使用标签和预测结果补偿损失值以缓解神经网络向噪声拟合的倾向。当带入补偿时,公式 (6.2) 可以被改写为公式 (6.14) :
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.14)是样本图像对应的标签,是其预测结果,是公式(6.3)定义的最后一层 softmax 层输出。
27.利用公式 (6.11) 定义的归一化预测置信度 动态地确定各个样本标签和预测结果之间的权重关系,达到动态校正损失值的目的。具体思路是:训练过程中,某个样本图像的标签预测置信度很高则其为干净样本或分布内噪声样本的几率就偏大,损失值应当在很大程度上由预测结果来校正;反之,某个样本的预测历史存在频繁变动导致预测不确定性偏大则样本是困难样本或分布外噪声的可能性就偏大,样本损失值应当很大程度上取决于原始的标签。综上,公式 (6.14) 可以通过引入公式 (6.11) 改写成基于预测不确定性的动态损失,即公式 (6.15) :
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.15)其中,利用了归一化预测置信度 动态地调节了当前损失值的补偿程度,公式 (6.15 称为基于预测置信度的动态损失,简写为pfl损失 (prediction fidelity loss)。
28.在本实施例中,分布内噪声样本、分布外噪声样本和干净样本之间的交叉熵损失分界并不总是十分明晰,故不能在任意场景下很好地区分彼此。分布外噪声样本在训练过程中预测结果的置信度总是比干净样本和分布内噪声更低一些,这一现象为区分分布外噪声样本和其他样本提供了一条有价值的线索。训练过程中各个样本预测变化的规律揭示了一种可行的样本选择策略,即通过度量历史预测置信度来驱动样本选择。采用上述策略比单纯使用交叉熵损失显得更加有效,而且在识别分布外噪声的同时也能充分利用干净样本和分布内噪声样本。
29.为了顺利引入上述策略,需要在算法初始阶段采取预热训练,训练最初几轮,深度神经网络倾向于拟合干净和简单的样本,并随后开始适应困难样本和噪声样本,受上述结论的启发,使用所有训练样本 d在前 轮循环中先使用预热策略训练目标神经网络,预设训练的过程中不包括任何损失校正和样本选择过程,训练使用的使用交叉熵损失如公式 (6.2) :
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.2)其中,表示样本的标签,公式 (6.2) 中的交叉熵损失仅用在预热阶段更新神经网络,式中表示最后 一层softmax层的输出向量,以公式 (6.3) 计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.3)公式中的表示神经网络的映射函数,是最后一层softmax层之前的全连接层的输出,那么,各个样本图像对应的推理结果就可以用公式 (6.4) 计算:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.4)在整个训练过程中(包括预热训练过程),记录和更新了训练集中每个样本图像在近轮训练中的预测情况,记为。在预热训练阶段结束之后,使用训练过的神经网络对训练集d的所有样本执行一次预测并随后建立并更新历史预测序列。训练集d的所有训练样本的pfl损失用均公式 (6.15) 计算。在某轮训练完成后,可以选择 pfl 损失排名前的训练样本组成新的训练样本集执行神经网络模型的更新,本方法不在 mini-batch 中选择有用样本,本发明算法在整个训练集上选择参与训练的样本以减少跨 mini-batch 的噪声分布不平衡现象带来的影响。综上所述,预热训练后各轮训练使用的新选择出的训练样本集合的产生过程如公式 (6.5) 所示:
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(6.5)其中表示样本的损失,干净样本和分布内噪声样本由公式 (6.5) 在全局样本选择阶段被选入本轮训练的训练集。为了避免错误排除有用样本,基于预测稳定性度量的损失较高的样本仅在当前轮训练被排除在训练集外,但是下一轮全局样本选择时会重新计算全部样本的归一化预测置信度,并更新历史预测序列,过程如公式 (6.6) 所示:
ꢀꢀꢀꢀꢀ
(6.6)。
30.基于预测置信度的损失校正和全局样本选择算法如下:输入: 训练样本集 d训练轮次,预热训练轮次,样本含噪率,记录历史长度。
31.for dofor 训练数据集d中的各个训练样本 do
根据公式 (6.4) 计算当前样本的预测结果;if then将本轮训练之后各个样本的预测结果添加到历史预测结果序列的末尾;else用当前各个样本的预测结果替换掉历史预测结果序列中最早的预测记录,保证序列的长度不超过。
32.endif
ꢀꢀ
then根据公式 (6.2) 计算交叉熵损失;根据交叉熵损失计算梯度并反向传播更新网络。
33.else按照公式 (6.11) 计算d中样本的归一化预测稳定性;根据公式 (6.15) 计算基于预测稳定性的动态损失;根据公式 (6.5) 选择个样本组成本轮训练的实际训练集;根据公式 (6.6) 计算校正后的损失值;根据校正过的损失值反向传播;end;输出:用于训练反向传播的损失。
34.尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1