一种基于模型迁移的工业数据分类方法与流程

文档序号:19377213发布日期:2019-12-10 23:59阅读:来源:国知局

技术特征:

1.一种基于模型迁移的工业数据分类方法,其特征在于:包括如下步骤:

步骤a:收集工业界中不同种类产品的大量焊接缺陷数据集a作为源域数据集,并将他们按焊接缺陷种类分好放入不同文件夹并编号;

步骤b:收集少量待检测产品(几百张)的待分类缺陷数据,作为目标域数据;

步骤c:对源域数据进行数据增强,扩增训练集,增加数据特征密度,避免出现过拟合;

步骤d:构建具有残差结构的卷积神经网络;

步骤e:建立损失函数,以最小化跨域的学习特征协方差的差异,在特征层面通过对齐源域数据和目标域数据分布的二阶统计量来最小化域位移;

步骤f:对模型进行训练;

步骤g:对模型进行预测。

2.根据权利要求1所述的一种基于模型迁移的工业数据分类方法,其特征在于:步骤a中,焊接缺陷种类包括表面裂纹、表面气孔、咬边、焊瘤。

3.根据权利要求1所述的一种基于模型迁移的工业数据分类方法,其特征在于:步骤c中,对源域数据进行数据增强,扩增训练集,是指在源域数据读取过程中进行数据增强,数据增强方式包括:关键点变换、图像缩放、截取填充块、水平镜面翻转、上下翻转、改变图像空间、高斯扰动、灰度处理、最近邻像素中取均值扰动、最近邻中位数扰动、卷积、锐化、浮雕、随机加值、高斯噪声、亮度、随机去掉像素点、像素值翻转、对比度、仿射变换、局部扭曲、移动局部像素的一种或多种。

4.根据权利要求1所述的一种基于模型迁移的工业数据分类方法,其特征在于:步骤d中,构建具有残差结构的卷积神经网络,包括以下步骤:

d1:第一组卷积的输入大小是224x224,构建卷积核为7x7、步长为2的卷积层conv1,之后进行批量标准化bn、池化层relu操作,再使用3x3的最大池化层maxpool,步长为2,64通道;

d2:第二层conv2_x使用卷积核为3x3,步长为2的残差结构两次,64通道;

d3:第三层conv3_x使用3x3的卷积核,步长为2的残差结构两次,输出大小28x28x128;

d4:第四层conv4_x使用3x3的卷积核,步长为2的残差结构两次,输出大小14x14x256;

d5:第五层conv5_x使用3x3的卷积核,步长为2的残差结构两次,输出大小为7x7x512;

d6:最终全连接层输出要输出的类别数量,得到的残差网络结构见下表:

5.根据权利要求1所述的一种基于模型迁移的工业数据分类方法,其特征在于:步骤e中,建立损失函数,以最小化跨域的学习特征协方差的差异,包括以下步骤:

e1:将源域数据记为ds={xi},x∈rd,源域标签为:ls={yi},i∈{1,...,l};

e2:将未标记的目标域数据记为dt={ui},u∈rd

e3:源域数据和目标域数据的数量分别用ns和nt表示,用表示第j维度下源域数据中的第i个样本,表示j维度下目标域数据中的第i个样本;

e4:将coral损失函数定义为源域数据与目标域数据的二阶统计量之间的距离,公式记为:

其中,lcoral代表coralloss,表示矩阵的frobenius范数,d表示预测类别个数,用cs和ct表示源域数据和目标域数据特征的协方差矩阵;

e5:源域数据的协方差矩阵为:

e6:目标域数据的协方差矩阵为:

其中1是全1列向量;

e7:使用以下链式梯度对输入要素进行计算:

e8:使用批处理协方差,网络参数在两个网络之间共享;

e9:建立分类损失函数,采用交叉熵计算网络输出与源域标签的损失;

e10:采用分类损失和coral损失的联合训练来使网络学习的特征作用在目标域数据上,公式如下:

其中l表示总损失函数,lclass表示类别损失,t表示深度网络中的coral损失层的数量,λ是用于平衡分类准确度和域适应的一个参数,使lclass和lcoral都不要太大,也可以根据训练情况调节λ,比如经过一定步数后开始增大λ,或者设定一定的比例渐进增长,寻找到最好的预测效果。


技术总结
本发明涉及一种基于模型迁移的工业数据分类方法,步骤为:分别收集源域数据和目标域数据;对源域数据进行数据增强;构建具有残差结构的卷积神经网络;建立损失函数,以最小化跨域的学习特征协方差的差异,在特征层面通过对齐源域数据和目标域数据分布的二阶统计量来最小化域位移;对模型进行训练和预测。本方法实现了在目标数据很少、数据难获取的情况下使用其它相似数据进行学习进行特征迁移进而对目标域进行分类,具有较高的应用价值。

技术研发人员:张发恩;袁智超;孙天齐;陆强
受保护的技术使用者:深圳创新奇智科技有限公司
技术研发日:2019.08.13
技术公布日:2019.12.10
当前第2页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1