本技术涉及智能检测的,尤其是涉及一种成型不良智能检测方法及系统。
背景技术:
1、成型不良的检测往往依赖于人工目视检查的方法,如纱筒,这种方法不仅要求大量的人力投入,导致检测效率低下,而且极易受到人为因素的干扰。由于每位检查员的经验、视力状况、疲劳程度以及判断标准的不同,即使面对相同的纱筒样本,也可能得出截然不同的检测结果,这种主观性极大地增加了检测结果的不一致性和误差风险。即便是那些经验丰富、技能娴熟的操作人员,在长期高强度的工作环境下,也可能因为视觉疲劳、注意力分散或情绪波动等因素,导致判断失误,进而影响产品质量的准确评估。
2、随着科技的进步,相关技术已经开始探索并应用图像识别这种先进技术来替代传统的人工检测方式。这些技术通过捕捉纱筒的高清图像,利用复杂的算法模型自动分析纱筒的形状、纹理、尺寸等特征,从而实现对成型质量的快速、精准判断。然而,当前的这些技术方案在追求高效与精准的同时,也暴露出一定的局限性,即它们往往侧重于对当前数据的处理,而忽视了历史数据对于提升判定分类准确性的重要作用。
技术实现思路
1、为了能够基于历史数据,提升成型不良分类的准确性,本技术提供了一种成型不良智能检测方法及系统。
2、第一方面,本发明提供了一种成型不良智能检测方法,采用如下的技术方案:
3、一种成型不良智能检测方法,包括以下步骤:
4、数据采集:获取历史数据,并采集实时数据;
5、添加标签:对历史数据添加标签,获得第一数据;
6、第一建模:基于深度学习算法,建立分类模型;
7、第一模型训练:采用第一数据训练分类模型,将训练后的分类模型记为第一模型;
8、第一分类:将历史数据作为第一模型的输入,输出成型不良的类别概率,记为第二数据;
9、分类判断:判断第二数据是否符合预期,若是,则执行第二分类的步骤;若否,则执行第二模型训练的步骤;
10、第二模型训练:包括相似度计算、第二建模、更新标签和更新第一数据;
11、相似度计算:计算第一数据两两之间的相似度,获得第三数据;
12、第二建模:基于深度学习算法,建立修正模型;
13、更新标签:将第二数据和第三数据作为修正模型的输入,获得更新后的标签;
14、更新第一数据:采用更新后的标签替换第一数据中原来的标签,获得第四数据,将第四数据作为新的第一数据,并执行第一模型训练的步骤;
15、第二分类:将实时数据作为第一模型的输入,获得成型不良的类别。
16、通过采用上述技术方案,本技术通过对历史数据添加标签,并采用历史数据和添加的标签(二者统称为第一数据)对分类模型进行训练,将历史数据输入至训练好的分类模型中,获取其输出(即第二数据),通过判断第二数据是否符合预期,获得分类模型的训练效果,若第二数据符合预期,则表明分类模型训练效果良好,能够直接用于实时数据的分类,若第二数据不符合预期,表明添加的标签存在错误,导致分类模型训练效果不满足预期,需要对标签进行修正,采用修正后的标签重新对分类模型进行训练。通过引入相似度计算和修正模型,能够不断优化历史数据中的标签质量,复用了历史数据,使修正后的标签更加准确,能够更好地反映实际纱筒成型的状况,通过不断迭代和优化历史数据的标签,分类模型能够学习到更准确的特征表示,从而提高分类的准确性。
17、可选的,在执行第一模型训练的步骤之后,执行第一分类的步骤之前,还包括:
18、调整置信度:包括初始设置、确定行动空间、确定状态空间、确定奖励函数和获取最优置信度阈值;
19、初始设置:设置初始的置信度阈值;
20、确定行动空间:将分类模型所有置信度阈值的取值,整合为行动空间;
21、确定状态空间:将分类模型的性能指标、第一数据的特性和历史分类决策,整合为状态空间;
22、确定奖励函数:根据分类模型的性能指标,设定奖励函数;
23、获取最优置信度阈值:基于强化学习算法,选取最优置信度阈值。
24、通过采用上述技术方案,本技术将分类模型的性能指标、第一数据的特性和历史分类决策整合为状态空间,使得强化学习算法能够综合考虑多种因素,从而更加全面地评估不同置信度阈值下的分类模型的表现。通过设定奖励函数并基于强化学习算法优化置信度阈值,分类模型能够学习到在不同情境下最优的决策策略。通过强化学习算法寻找最优的置信度阈值,能够使得分类模型在面对实际数据时更加准确地判断何时接受或拒绝某个分类结果,有助于减少误分类,进一步提高整体分类的准确性。
25、可选的,在执行第二模型训练的步骤之后,执行第一模型训练的步骤之前,还包括:
26、剪枝:将第一模型中低于预设权重阈值的权重设定为零,获得第二模型;
27、重训练:采用第四数据对第二模型进行训练,获得训练后的第二模型;
28、评估:设定第二模型的评估指标,定期评估训练后的第二模型的性能是否符合预期,若是,则执行终止的步骤;若否,则执行迭代判断的步骤;
29、迭代判断:判断执行剪枝的步骤的次数是否大于预设阈值,若是,则执行终止的步骤;若否,则执行剪枝的步骤,并重新记录执行剪枝的步骤的次数;
30、终止:将训练后的第二模型作为新的第一模型,并执行第一模型训练的步骤。
31、通过采用上述技术方案,本技术剪除了低于预设权重阈值的权重,可以减少第一模型的复杂度,降低过拟合的风险,并提高第一模型的泛化能力,剪枝后的第一模型更加精简,有助于提升计算效率和降低存储需求。使用第四数据对第二模型进行重训练,可以进一步调整第二模型的参数,以更好地适应第四数据分布和特征。通过定期评估第二模型的性能是否符合预期,根据其评估结果判断是否需要进行剪枝,还是执行终止的步骤。
32、可选的,在执行终止的步骤之后,执行第一模型训练的步骤之前,还包括:
33、获取预测标签:将历史数据输入至终止的步骤获得的第一模型中,获得历史数据所属的类别概率,记为第五数据;
34、设定第一损失函数:设定第一损失函数,计算模型如下:
35、;
36、其中,为第一损失函数的数值;为第五数据中第i个类别的预测概率;为第二数据中第i个类别的预测概率;
37、损失判断:判断第一损失函数的数值是否小于预设损失函数阈值,若是,则执行第一分类的步骤;若否,则执行第一模型训练的步骤。
38、通过采用上述技术方案,本技术设定第一损失函数的目的是衡量原第一模型的预测概率(第一分类的步骤中获得的类别概率)与第二模型的预测概率(获取预测标签的步骤中获得的类别概率)二者之间的差异,并通过将第一损失函数和预设的损失函数阈值进行比对,如果损失值小于预设的损失函数阈值,说明第二模型对历史数据的预测性能较好,可以进行第一分类的步骤。如果损失值大于阈值,说明第一模型的分类性能不足,需要回到第一模型训练的步骤进行进一步优化。
39、可选的,在执行设定第一损失函数的步骤之后,执行损失判断的步骤之前,还包括:
40、获取真实标签:将添加标签的步骤中,第一数据的标签作为真实标签,记为第六数据;
41、设定第二损失函数:设定第二损失函数,计算模型如下:
42、;
43、其中,为第二损失函数的数值;a为成型不良的类别的数量;为第六数据中第j个类别的真实概率;为第二数据中第j个类别的预测概率;
44、计算总损失:设定总损失函数,计算模型如下:
45、;
46、其中,b为总损失函数的数值。
47、通过采用上述技术方案,本技术设定了第二损失函数以衡量预测概率(第一分类的步骤中获得的类别概率)与真实标签的概率之间的差异。通过设定总损失函数,将第一损失函数和第二损失函数结合起来,以得到一个综合的损失值。总损失函数为模型优化提供了一个统一的目标,使得模型在训练过程中能够同时考虑第二数据、第五数据和第六数据,不断优化其参数,进而使模型在多个数据上实现更好的泛化能力,更有利于对实时数据进行分类。
48、可选的,在执行计算总损失的步骤之后,执行损失判断的步骤之前,还包括:
49、替换:将总损失函数的数值代替第一损失函数的数值,并执行损失判断的步骤。
50、通过采用上述技术方案,将总损失函数的数值代替第一损失函数的数值,并执行损失判断的步骤,使损失判断的步骤能够基于总的损失进行判断,能够获得更加精确的判断结果。
51、可选的,所述总损失还通过第一损失函数的权重和第二损失函数的权重进行计算,计算模型如下:
52、;
53、其中,b为总损失函数的数值;为第一损失函数的权重;为第二损失函数的权重。
54、通过采用上述技术方案,通过合理设定第一损失函数的权重和第二损失函数的权重,能够使模型获得更好的性能,当两个权重相等时,两个损失函数对总损失的贡献是相等的,适用于两组数据在模型训练中具有相同重要性的情况,如果希望模型更侧重于某一组数据的预测性能,还可以增加对应损失函数的权重。
55、可选的,所述第一损失函数的权重通过交叉验证的方法获取。
56、通过采用上述技术方案,本技术通过交叉验证的方式获取第一损失函数的权重,可以找到在验证集上表现最佳的权重值。
57、可选的,在执行数据采集的步骤之后,执行添加标签的步骤之前,还包括:
58、维度判断:判断历史数据和/或实时数据是否为一维数据,若是,则执行添加标签的步骤;若否,则执行降维的步骤;
59、降维:对历史数据和/或实时数据进行非线性降维处理,将降维后的历史数据记为新的历史数据,将降维后的实时数据记为新的实时数据。
60、通过采用上述技术方案,一维数据通常比高维数据更容易处理,因为它们简化了数据的复杂性和计算量,通过快速判断数据是否为一维,可以直接对一维数据进行后续处理,减少不必要的计算开销。高维数据在处理和分析时计算复杂度较高,降维可以有效减少数据的维度,从而降低计算成本,提高处理速度。高维数据中往往包含大量冗余或噪声信息,这些信息对于数据分析和模型训练是有害的。通过降维,可以去除这些冗余信息,保留关键特征,提高数据质量。许多深度学习算法在高维空间中容易遭遇“维度灾难”,即随着维度的增加,模型的性能急剧下降。降维可以将数据映射到低维空间,使得模型更容易学习,从而提高模型的泛化能力和准确性。
61、第二方面,本发明提供的一种成型不良智能检测系统,采用如下的技术方案:
62、一种成型不良智能检测系统,包括:
63、数据采集模块,用于获取历史数据,并采集实时数据;
64、添加标签模块,用于对历史数据添加标签,获得第一数据;
65、第一建模模块,用于基于深度学习算法,建立分类模型;
66、第一模型训练模块,用于采用历史数据及添加的标签训练分类模型;
67、第一分类模块,用于将历史数据作为训练后的分类模型的输入,输出成型不良的类别概率;
68、分类判断模块,用于判断成型不良的类别概率是否符合预期;
69、第二模型训练模块,包括相似度计算单元、第二建模单元、更新标签单元和更新第一数据单元;
70、相似度计算单元,用于计算第一数据两两之间的相似度;
71、第二建模单元,用于基于深度学习算法,建立修正模型;
72、更新标签单元,用于将成型不良的类别概率和所述相似度作为修正模型的输入,获得更新后的标签;
73、更新第一数据单元,用于将更新后的标签替换历史数据中原来的标签,获得新的标签,并将新的标签替换原来的标签;
74、第二分类模块,用于将实时数据作为分类模型的输入,获得成型不良的类别。
75、通过采用上述技术方案,本技术通过人工或自动的方式对历史数据添加标签,是深度学习模型训练的关键步骤,准确的标签能够显著提升模型的分类性能。本技术基于深度学习算法建立分类模型,并使用带有标签的历史数据进行训练,深度学习算法擅长从大量数据中提取复杂特征,从而提高分类的准确性和泛化能力。训练后的模型能够输出纱筒成型不良的类别概率,为后续的决策提供支持。第一分类模块输出类别概率,分类判断模块则根据这些概率判断是否符合预期,有助于发现模型的不足。计算历史数据两两之间的相似度,有助于发现数据中的潜在模式和关系,为修正模型提供有用的输入。使用深度学习算法建立修正模型,旨在利用相似度信息和类别概率来改进标签的准确性。结合类别概率和相似度信息,生成更新后的标签,有助于纠正可能的标签错误,提高数据的整体质量。在修正模型和数据集后,该模块将实时数据输入到分类模型中,以获得成型不良的类别。
76、综上所述,本技术包括以下至少一种有益技术效果:
77、1.本技术通过对历史数据添加标签,并采用历史数据和添加的标签(二者统称为第一数据)对分类模型进行训练,将历史数据输入至训练好的分类模型中,获取其输出(即第二数据),通过判断第二数据是否符合预期,获得分类模型的训练效果,若第二数据符合预期,则表明分类模型训练效果良好,能够直接用于实时数据的分类,若第二数据不符合预期,表明添加的标签存在错误,导致分类模型训练效果不满足预期,需要对标签进行修正,采用修正后的标签重新对分类模型进行训练。通过引入相似度计算和修正模型,能够不断优化历史数据中的标签质量,复用了历史数据,使修正后的标签更加准确,能够更好地反映实际纱筒成型的状况,通过不断迭代和优化历史数据的标签,分类模型能够学习到更准确的特征表示,从而提高分类的准确性。
78、2.一维数据通常比高维数据更容易处理,因为它们简化了数据的复杂性和计算量,通过快速判断数据是否为一维,可以直接对一维数据进行后续处理,减少不必要的计算开销。高维数据在处理和分析时计算复杂度较高,降维可以有效减少数据的维度,从而降低计算成本,提高处理速度。高维数据中往往包含大量冗余或噪声信息,这些信息对于数据分析和模型训练是有害的。通过降维,可以去除这些冗余信息,保留关键特征,提高数据质量。许多深度学习算法在高维空间中容易遭遇“维度灾难”,即随着维度的增加,模型的性能急剧下降。降维可以将数据映射到低维空间,使得模型更容易学习,从而提高模型的泛化能力和准确性。
79、3.本技术通过人工或自动的方式对历史数据添加标签,是深度学习模型训练的关键步骤,准确的标签能够显著提升模型的分类性能。本技术基于深度学习算法建立分类模型,并使用带有标签的历史数据进行训练,深度学习算法擅长从大量数据中提取复杂特征,从而提高分类的准确性和泛化能力。训练后的模型能够输出纱筒成型不良的类别概率,为后续的决策提供支持。第一分类模块输出类别概率,分类判断模块则根据这些概率判断是否符合预期,有助于发现模型的不足。计算历史数据两两之间的相似度,有助于发现数据中的潜在模式和关系,为修正模型提供有用的输入。使用深度学习算法建立修正模型,旨在利用相似度信息和类别概率来改进标签的准确性。结合类别概率和相似度信息,生成更新后的标签,有助于纠正可能的标签错误,提高数据的整体质量。在修正模型和数据集后,该模块将实时数据输入到分类模型中,以获得成型不良的类别。