退火材料的力学性能预测方法、装置及可读存储介质与流程

文档序号:30307362发布日期:2022-06-05 07:13阅读:135来源:国知局
退火材料的力学性能预测方法、装置及可读存储介质与流程

1.本技术属于金属热处理技术领域,尤其涉及一种退火材料的力学性能预测方法、装置及可读存储介质。


背景技术:

2.目前,退火设备通常采用箱式电阻炉或箱式油、气炉,装炉量大,升温速度慢。在升温过程中,炉料温差大。这对再结晶退火来说,产生了一个比较严重的问题:料温高的可能已经开始再结晶,而料温较低的仍处于回复阶段,尚未产生再结晶核心。当较低温度的炉料升至再结晶温度,开始再结晶时,较高温度下的炉料,已经完成再结晶,并可能发生二次长大。因此当所有炉料完成再结晶时,处于最先结晶并发生长大的炉料,出现了巨大的再结晶晶粒组织,严重地影响了材料的组织性能,特别是对某些易发生聚集再结晶的合金,最容易出现二次长大的大晶粒组织。
3.因此,针对退火材料,需要预测退火材料的力学性能。然而,经本技术的发明人发现,现有的退火材料的力学性能测试方法所花费的成本较高,而且预测的力学性能结果准确度较低。


技术实现要素:

4.本技术实施例提供一种退火材料的力学性能预测方法、装置及可读存储介质,能够降低退火材料力学性能预测所花费的成本,提高力学性能预测的准确度。
5.第一方面,本技术实施例提供了一种退火材料的力学性能预测方法,退火材料的力学性能预测方法包括:获取目标退火材料拟要采用的退火工艺参数;基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果;其中,神经网络模型为通过学习样本退火材料的退火工艺参数与样本退火材料的力学性能结果的映射关系而得到。
6.根据本技术第一方面的实施方式,在基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果之后,退火材料的力学性能预测方法还可以包括:将目标退火材料的力学性能预测结果与预先确定的目标力学性能结果进行对比;在目标退火材料的力学性能预测结果与目标力学性能结果之间的偏差大于预设第一阈值的情况下,对目标退火材料拟要采用的退火工艺参数进行调整,得到调整后的退火工艺参数;基于神经网络模型和调整后的退火工艺参数,得到目标退火材料的力学性能预测结果,并返回将目标退火材料的力学性能预测结果与预先确定的目标力学性能结果进行对比的步骤,直至偏差小于或等于预设第一阈值;将偏差小于或等于预设第一阈值时对应的退火工艺参数,确定为目标退火材料最终采用的退火工艺参数。
7.根据本技术第一方面前述任一实施方式,在获取目标退火材料拟要采用的退火工艺参数之前,方法还包括:获取样本退火材料的退火工艺参数和样本退火材料的力学性能结果;基于对数函数、指数函数和/或幂函数对样本退火材料的退火工艺参数进行预处理,
得到样本退火材料预处理后的退火工艺参数;将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱,并选取部分样本退火材料预处理后的退火工艺参数和部分样本退火材料的力学性能结果作为神经网络模型的训练数据;基于训练数据对神经网络模型进行训练,得到训练好的神经网络模型。
8.根据本技术第一方面前述任一实施方式,在将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱之前,方法还包括:根据样本退火材料预处理后的退火工艺参数与样本退火材料的力学性能结果,计算皮尔森相关性系数;根据皮尔森相关性系数与预设第二阈值之间的对比结果,去除部分预处理后的退火工艺参数,得到相关性计算后的退火工艺参数;将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱,包括:将相关性计算后的退火工艺参数和样本退火材料的力学性能结果随机打乱。
9.根据本技术第一方面前述任一实施方式,选取部分样本退火材料预处理后的退火工艺参数和部分样本退火材料的力学性能结果作为神经网络模型的训练数据,具体包括:从样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果中,随机抽取q个子退火工艺参数和p个子力学性能结果,组成多个训练矩阵;退火工艺参数包括m个子退火工艺参数,力学性能结果包括n个子力学性能结果,q≤m,p≤n,q、p、m和n均为正整数;基于训练数据对神经网络模型进行训练,得到训练好的神经网络模型,包括:基于多个训练矩阵对神经网络模型进行训练,得到训练好的神经网络模型。
10.根据本技术第一方面前述任一实施方式,在获取目标退火材料拟要采用的退火工艺参数之前,方法还包括:确定神经网络模型的隐含层节点数;根据样本退火材料的退火工艺参数、样本退火材料的力学性能结果和神经网络结构的类型,确定神经网络模型的归一化计算方式;将线性激活函数确定为神经网络模型的隐含层的激活函数;将列文伯格函数确定为神经网络模型的训练函数。
11.根据本技术第一方面前述任一实施方式,在将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱之后,方法还包括:将除训练数据之外的另一部分样本退火材料预处理后的退火工艺参数和另一部分样本退火材料的力学性能结果,作为神经网络模型的验证数据;基于验证数据对训练好的神经网络模型进行验证。
12.根据本技术第一方面前述任一实施方式,基于验证数据对训练好的神经网络模型进行验证,包括:根据验证数据中第i个样本退火材料的实际的力学性能结果和神经网络模型输出的第i个样本退火材料的力学性能预测结果,计算可决系数,i为正整数;和/或,计算第i个样本退火材料的实际的力学性能结果与神经网络模型输出的第i个样本退火材料的力学性能预测结果之间的差值;根据可决系数和/或差值,确定神经网络模型的训练结果。
13.第二方面,本技术实施例提供了一种退火材料的力学性能预测装置,装置包括:获取模块,用于获取目标退火材料拟要采用的退火工艺参数;预测模块,用于基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果;其中,神经网络模型为通过学习样本退火材料的退火工艺参数与样本退火材料的力学性能结果的映射关系而得到。
14.第三方面,本技术实施例提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如第一方面提供的退火材料的力学性
能预测方法的步骤。
15.本技术实施例的退火材料的力学性能预测方法、装置及可读存储介质,首先获取目标退火材料拟要采用的退火工艺参数;然后基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果;其中,神经网络模型为通过学习样本退火材料的退火工艺参数与样本退火材料的力学性能结果的映射关系而得到。通过神经网络模型解决了退火材料的力学性能预测的问题,并能同时兼顾退火工艺参数中的不同影响因素对最终力学性能的不同影响,降低了退火材料的力学性能预测所花费的材料成本、试验成本和时间成本,提高了力学性能预测的准确度。
附图说明
16.为了更清楚地说明本技术实施例的技术方案,下面将对本技术实施例中所需要使用的附图作简单的介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
17.图1为本技术实施例提供的退火材料的力学性能预测方法的一种流程示意图;
18.图2为本技术实施例提供的退火材料的力学性能预测方法的另一种流程示意图;
19.图3为本技术实施例提供的退火材料的力学性能预测方法的又一种流程示意图;
20.图4为图3所示的退火材料的力学性能预测方法中步骤s303的一种流程示意图;
21.图5为本技术实施例提供的退火材料的力学性能预测方法的又一种流程示意图;
22.图6为图5所示的退火材料的力学性能预测方法中步骤s502的一种流程示意图;
23.图7为随机选取的第i个样本退火材料的实际的力学性能结果与神经网络模型输出的第i个样本退火材料的力学性能预测结果的对比示意图;
24.图8为本技术实施例预测的板材厚度对应的力学性能变化图;
25.图9为本技术实施例预测的退火温度对应的力学性能变化图;
26.图10为本技术实施例预测的保温时间对应的力学性能变化图;
27.图11为本技术实施例提供的退火材料的力学性能预测装置的一种结构示意图;
28.图12为本技术实施例提供的电子设备的一种结构示意图。
具体实施方式
29.下面将详细描述本技术的各个方面的特征和示例性实施例,为了使本技术的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本技术进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本技术,而不是限定本技术。对于本领域技术人员来说,本技术可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本技术的示例来提供对本技术更好的理解。
30.需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括
……”
限定的要素,并不排除在包括
所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
31.应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
32.在阐述本技术实施例所提供的技术方案之前,为了便于对本技术实施例理解,本技术首先对现有技术中存在的问题进行具体说明:
33.目前,退火设备通常采用箱式电阻炉或箱式油、气炉,装炉量大,升温速度慢。在升温过程中,炉料温差大。这对再结晶退火来说,产生了一个比较严重的问题:料温高的可能已经开始再结晶,而料温较低的仍处于回复阶段,尚未产生再结晶核心。当较低温度的炉料升至再结晶温度,开始再结晶时,较高温度下的炉料,已经完成再结晶,并可能发生二次长大。因此当所有炉料完成再结晶时,处于最先结晶并发生长大的炉料,出现了巨大的再结晶晶粒组织,严重地影响了材料的组织性能,特别是对某些易发生聚集再结晶的合金,最容易出现二次长大的大晶粒组织。
34.因此,针对退火材料,需要预测退火材料的力学性能。然而,经本技术的发明人发现,现有的退火材料的力学性能,通常采用“试错”法。即,在退火材料的实际生产中去尝试不同的温度、时间组合,直到获得满足要求的炉料力学性能。显然,这样的“试错”法需要花费较高的材料成本、试验成本和时间成本,并且人为尝试容易出错,力学性能预测的准确度较低。
35.鉴于发明人的上述研究发现,本技术实施例提供了一种退火材料的力学性能预测方法、装置及可读存储介质,能够解决现有技术中存在的退火材料的力学性能预测的成本高及准确度较低的技术问题。
36.本技术实施例的技术构思在于:基于预先训练好的神经网络模型和目标退火材料的退火工艺参数,预测目标退火材料的力学性能。这样,通过神经网络模型解决了退火材料的力学性能预测的问题,并能同时兼顾退火工艺参数中的不同影响因素对最终力学性能的不同影响,降低了退火材料的力学性能预测所花费的材料成本、试验成本和时间成本,提高了力学性能预测的准确度。
37.下面首先对本技术实施例所提供的退火材料的力学性能预测方法进行介绍。
38.图1为本技术实施例提供的退火材料的力学性能预测方法的一种流程示意图。如图1所示,该方法可以包括以下步骤s101和s102。
39.s101、获取目标退火材料拟要采用的退火工艺参数。
40.其中,目标退火材料可以理解为任何需要采取退火工艺的材料。例如,目标退火材料包括但不限于不完全再结晶退火钢。退火工艺参数包括但不限于板材厚度、退火温度和/或保温时间。在s101中,可以获取目标退火材料准备采用的退火工艺参数。当然,在实际应用中,也可以获取目标退火材料已经采用或者正在采用的退火工艺参数,亦落入本技术的保护范围之内。
41.s102、基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果;其中,神经网络模型为通过学习样本退火材料的退火工艺参数与样本退火材料的力学性能结果的映射关系而得到。
42.容易理解的是,预先可以建立和训练神经网络模型,得到训练好的神经网络模型。
然后,在s102中,基于训练好的神经网络模型预测目标退火材料的力学性能,得到目标退火材料的力学性能预测结果。其中,力学性能预测结果包括但不限于目标退火材料的抗拉强度、屈服强度和/或延伸率。示例性地,神经网络模型可以包括bp神经网络模型。bp神经网络是一种基于人脑神经元结构和工作模式的数学模型,具有自学习、自组织、非线性计算的能力的优点。本技术实施例将bp神经网络应用于退火材料的力学性能预测之中,以此可以综合多种因素来准确快速的分析出火材料的力学性能。
43.本技术实施例的退火材料的力学性能预测方法,首先获取目标退火材料拟要采用的退火工艺参数;然后基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果;其中,神经网络模型为通过学习样本退火材料的退火工艺参数与样本退火材料的力学性能结果的映射关系而得到。通过神经网络模型解决了退火材料的力学性能预测的问题,并能同时兼顾退火工艺参数中的不同影响因素对最终力学性能的不同影响,降低了退火材料的力学性能预测所花费的材料成本、试验成本和时间成本,提高了力学性能预测的准确度。
44.图2为本技术实施例提供的退火材料的力学性能预测方法的另一种流程示意图。如图2所示,根据本技术的一些实施例,可选地,s102、基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果之后,该方法还可以包括以下步骤s201至s204。
45.s201、将目标退火材料的力学性能预测结果与预先确定的目标力学性能结果进行对比。
46.其中,目标力学性能结果可以理解为期望所要达到的力学性能结果。与力学性能预测结果相对应的是,目标力学性能结果也可以包括目标抗拉强度、目标屈服强度和/或目标延伸率。目标抗拉强度即期望目标退火材料所要达到的抗拉强度,目标屈服强度即期望目标退火材料所要达到的屈服强度,目标延伸率即期望目标退火材料所要达到的延伸率。
47.s202、在目标退火材料的力学性能预测结果与目标力学性能结果之间的偏差大于预设第一阈值的情况下,对目标退火材料拟要采用的退火工艺参数进行调整,得到调整后的退火工艺参数。
48.例如,当预测的目标退火材料的抗拉强度与目标抗拉强度之间的偏差、预测的目标退火材料的屈服强度与目标屈服强度之间的偏差、预测的目标退火材料的延伸率与目标延伸率之间的偏差中的任意一个或多个偏差大于预设第一阈值时,则对目标退火材料拟要采用的退火工艺参数进行调整,得到调整后的退火工艺参数。需要说明的是,抗拉强度、屈服强度和延伸率可以对应不同的预设第一阈值,即抗拉强度、屈服强度和延伸率对应的预设第一阈值可以不同。
49.s203、基于神经网络模型和调整后的退火工艺参数,得到目标退火材料的力学性能预测结果,并返回将目标退火材料的力学性能预测结果与预先确定的目标力学性能结果进行对比的步骤,直至偏差小于或等于预设第一阈值。
50.具体地,将调整后的退火工艺参数再次输入至神经网络模型之中,神经网络模型输出目标退火材料的力学性能预测结果。随后,返回步骤s201,重复执行上述步骤,直至目标退火材料的力学性能预测结果与目标力学性能结果之间的偏差小于或等于预设第一阈值。
51.s204、将偏差小于或等于预设第一阈值时对应的退火工艺参数,确定为目标退火材料最终采用的退火工艺参数。
52.具体地,可以将目标退火材料的力学性能预测结果与目标力学性能结果之间的偏差小于或等于预设第一阈值时对应的退火工艺参数,作为目标退火材料最终采用的退火工艺参数。
53.如此一来,通过神经网络模型预测目标退火材料的力学性能预测结果,并利用力学性能预测结果与目标力学性能结果,反推出目标退火材料最终采用的退火工艺参数,从而可以快速且准确地确定出目标退火材料的退火工艺参数。相比于现有技术中的“试错”法,大幅降低了确定退火材料的退火工艺参数所花费的材料成本、试验成本和时间成本。
54.如上所述,本技术实施例需要基于训练好的神经网络模型预测目标退火材料的力学性能,得到目标退火材料的力学性能预测结果。为了便于理解,下面介绍神经网络模型的训练过程。
55.如图3所示,根据本技术的一些实施例,可选地,在s101获取目标退火材料拟要采用的退火工艺参数之前,该方法还可以包括以下步骤s301至s304。
56.s301、获取样本退火材料的退火工艺参数和样本退火材料的力学性能结果。
57.如下面表1所示,神经网络训练的数据来自于已有的样本退火材料的实际数据,包括样本退火材料的退火工艺参数和样本退火材料的力学性能结果。在一些具体的示例中,可选地,样本退火材料的退火工艺参数可以包括板材厚度h、退火温度t和保温时间t。样本退火材料的力学性能结果可以包括抗拉强度、屈服强度和延伸率等作为表征钢种力学性能的数据。在一些具体的示例中,共有57组数据,具体如表1所示。
58.表1样本退火材料的实际数据
59.60.[0061][0062]
s302、基于对数函数、指数函数和/或幂函数对样本退火材料的退火工艺参数进行预处理,得到样本退火材料预处理后的退火工艺参数。
[0063]
具体地,在s302中,可以对获取到的数据(如样本退火材料的退火工艺参数)进行数据预处理,包括但不限于对数据进行m2、m3、m
1/2
、m
1/3
、em、log(m)的数据预处理(m为上述数据)。
[0064]
本技术实施例对样本退火材料的退火工艺参数进行预处理的效果在于:通过对样本退火材料的退火工艺参数进行预处理,可以提高发现源数据中的数据隐含规律的效率,得到更加精准的神经网络模型。例如,源数据是a和b两个变量,真实世界中的公式是lna+b^2.1,如果仅仅以a和b进行训练,很难得到符合规律的模型,但如果同时把a^2,a^3,oga等等变体放进去训练,就会比较容易得到高精度的模型。
[0065]
s303、将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱,并选取部分样本退火材料预处理后的退火工艺参数和部分样本退火材料的力学性能结果作为神经网络模型的训练数据。
[0066]
示例性地,例如可以利用仿真软件(如matlab软件)内置的randperm函数对样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果进行随机打乱/随机排序,然后从随机打乱的数据中取部分样本退火材料预处理后的退火工艺参数和部分样本退火材料的力学性能结果作为神经网络模型的训练数据。
[0067]
具体而言,randperm函数可将源数据(包含样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果)中的各条随机互换位置,以此在此方法中得到相对于源数据矩阵随机的数据矩阵,对该数据矩阵按顺序选择即视为对源数据矩阵的随机选择。然后,从生成的多组数据矩阵中选择出一部分数据矩阵作为神经网络模型的训练矩阵。
[0068]
在一些具体的示例中,s303具体可以包括以下步骤:
[0069]
从样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果中,随机抽取q个子退火工艺参数和p个子力学性能结果,组成多个训练矩阵。退火工艺参数包括m个子退火工艺参数,力学性能结果包括n个子力学性能结果,q≤m,p≤n,q、p、m和n均为正整数。
[0070]
例如,样本退火材料预处理后的退火工艺参数有90个子退火工艺参数,样本退火材料的力学性能结果有30个子力学性能结果。其中,30个子退火工艺参数为板材厚度,30个子退火工艺参数为退火温度,30个子退火工艺参数为保温时间。那么,可以分别从30个板材厚度抽取一部分板材厚度,从30个退火温度抽取一部分退火温度,从30个保温时间抽取一部分保温时间,从30个子力学性能结果抽取一部分子力学性能结果,组成多个训练矩阵。
[0071]
s304、基于训练数据对神经网络模型进行训练,得到训练好的神经网络模型。
[0072]
在s304中,可以基于多个训练矩阵对神经网络模型进行训练,得到训练好的神经网络模型。
[0073]
如图4所示,根据本技术的一些实施例,可选地,在s303将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱之前,该方法还可以包括以下步
骤s401和s402。
[0074]
s401、根据样本退火材料预处理后的退火工艺参数与样本退火材料的力学性能结果,计算皮尔森相关性系数。
[0075]
具体地,可以依据以下表达式,计算皮尔森相关性系数:
[0076][0077]
其中,r表示皮尔森相关性系数,-1<r<1;i指代的数值为不同渠道获取的各条数据;xi表示样本退火材料预处理后的退火工艺参数中的第i个子退火工艺参数,表示平均值;yi表示样本退火材料的力学性能结果中的第i个子力学性能结果,表示平均值。
[0078]
s402、根据皮尔森相关性系数与预设第二阈值之间的对比结果,去除部分预处理后的退火工艺参数,得到相关性计算后的退火工艺参数。
[0079]
具体地,去除对应的皮尔森相关性系数小于预设第二阈值的部分退火工艺参数,即将相关性较低的部分退火工艺参数去除,从而一定范围内减少神经网络模型的训练数据集,提高模型训练速率和模型训练的准确性。
[0080]
相应地,s303将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱,具体可以包括以下步骤:将相关性计算后的退火工艺参数和样本退火材料的力学性能结果随机打乱。即,在随机打乱之前,先进行相关性计算,再对相关性计算后的退火工艺参数和样本退火材料的力学性能结果进行随机打乱。
[0081]
需要说明的是,皮尔森相关性系数是评价上述预处理是否有效的一种比较可靠的方法,但也可以采取其他类似的相关性计算方式,本技术实施例对此不作限定。
[0082]
根据本技术的一些实施例,可选地,在s303将样本退火材料预处理后的退火工艺参数和样本退火材料的力学性能结果随机打乱之后,该方法还可以包括以下步骤:对随机打乱的样本退火材料的退火工艺参数和力学性能结果进行自抽样扩充。具体做法是:构建一个随机数据矩阵,这个随机数据矩阵来自源数据的随机“自抽样”,比原始数据样本更大。扩充后的矩阵,用于模型训练时更稳定,能够避免源数据中个别不可靠数据对模型整体造成过大的影响。
[0083]
在实际应用中,例如可以利用以下程序对于源数据进行自抽样扩充:
[0084][0085]
其中,yy为期望扩充的数据数量,xx为训练集中的一部分数据数量。
[0086]
例如,在一些具体的示例中,上述程序可以为:
[0087][0088]
其中,期望获得的数据总数量为1000,期望扩充的数据数量为951,训练集中的一部分数据数量为50。
[0089]
相应地,s303中选取部分样本退火材料预处理后的退火工艺参数和部分样本退火材料的力学性能结果作为神经网络模型的训练数据,具体可以包括:在对随机打乱的样本退火材料的退火工艺参数和力学性能结果进行自抽样扩充之后,从自抽样扩充后的样本退火材料的退火工艺参数和力学性能结果中,选取部分样本退火材料预处理后的退火工艺参数和部分样本退火材料的力学性能结果作为神经网络模型的训练数据。如此一来,通过自抽样扩充可以使得神经网络模型尽可能稳定。
[0090]
根据本技术的一些实施例,可选地,在s101获取目标退火材料拟要采用的退火工艺参数或者说在对神经网络模型训练之前,该方法还可以包括建立神经网络模型。建立神经网络模型主要包括确定网络隐含层节点数、数据归一化方法、激活函数及训练函数的选择。
[0091]
具体地,建立神经网络模型具体可以包括以下步骤:
[0092]
步骤一、确定神经网络模型的隐含层节点数。
[0093]
例如,可以依据以下表达式,确定神经网络模型的隐含层节点数:
[0094][0095]
其中,m为隐含层节点数,n为输入层节点数,l为输出层节点数,a为常数,1<a<10。
[0096]
在一些具体的示例中,例如隐含层节点数m为8,输入层节点数n为22,输出层节点数l为3。
[0097]
步骤二、根据样本退火材料的退火工艺参数、样本退火材料的力学性能结果和神经网络结构的类型,确定神经网络模型的归一化计算方式。
[0098]
示例性地,归一化计算方式可以包括以下步骤:
[0099]
y=2*(x-min)/(max-min)-1(-1<y<1)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0100]
其中,x为源数据,y为计算得到的归一化数据。
[0101]
步骤三、将线性激活函数确定为神经网络模型的隐含层的激活函数。
[0102]
步骤四、将列文伯格函数(即lm函数,又称lm算法)确定为神经网络模型的训练函数。lm算法是一种效率较高的算法,将lm函数作为训练函数可以提高训练速度。
[0103]
为了保证神经网络模型的准确性,可选地,在得到训练好的神经网络模型之后,还可以对于训练好的神经网络模型进行验证。具体地,如图5所示,在s303选取部分样本退火材料预处理后的退火工艺参数和部分样本退火材料的力学性能结果作为神经网络模型的训练数据之后,该方法还可以包括以下步骤s501和s502。
[0104]
s501、将除训练数据之外的另一部分样本退火材料预处理后的退火工艺参数和另一部分样本退火材料的力学性能结果,作为神经网络模型的验证数据。
[0105]
具体地,在随机打乱之后,得到多组数据矩阵。选择出一部分数据矩阵作为神经网络模型的训练矩阵,剩余的数据矩阵作为神经网络模型的验证矩阵。例如,在一些具体的示例中,训练矩阵的数量为50,验证矩阵的数量为7。
[0106]
s502、基于验证数据对训练好的神经网络模型进行验证。
[0107]
在s502中,可以利用神经网络模型的验证矩阵对训练好的神经网络模型进行验证。如此一来,通过对训练好的神经网络模型进行验证,可以保证最终得到的神经网络模型的准确性。
[0108]
如图6所示,根据本技术的一些实施例,可选地,s502、基于验证数据对训练好的神经网络模型进行验证,具体可以包括以下步骤s601至s603。
[0109]
s601、根据验证数据中第i个样本退火材料的实际的力学性能结果和神经网络模型输出的第i个样本退火材料的力学性能预测结果,计算可决系数,i为正整数;和/或,
[0110]
s602、计算第i个样本退火材料的实际的力学性能结果与神经网络模型输出的第i个样本退火材料的力学性能预测结果之间的差值;
[0111]
s603、根据可决系数和/或差值,确定神经网络模型的训练结果。
[0112]
可决系数r2是统计学上常用来反映回归模式说明因变量变化可靠程度的一个统计指标。具体地,在s601中,例如可以以下表达式,计算可决系数:
[0113][0114]
其中,y表示第i个样本退火材料的实际的力学性能结果,代表多个样本退火材料的实际的力学性能结果的平均值,代表第i个样本退火材料的力学性能预测结果,当r2越大时代表拟合值和实际值越接近,拟合结果越好,即代表预测模型越准确。
[0115]
在s602中,实际的力学性能结果与力学性能预测结果的对比实现的方式可以为:
[0116]
t_sim=mapminmax('reverse',t_sim,ps_output);
[0117]
error=abs(t_sim-t_test)./t_test
[0118]
其中,t_sim可以表示第i个样本退火材料的实际的力学性能结果;t_test可以表示第i个样本退火材料的力学性能预测结果;error表示差值。
[0119]
通过将预测数据通过反归一化公式得到预测的实际数据,再与真实数据取相对差值比例,error值越小说明拟合越接近真实情况。
[0120]
图7为随机选取的第i个样本退火材料的实际的力学性能结果与神经网络模型输出的第i个样本退火材料的力学性能预测结果的对比示意图。如图7所示,本技术实施例通过神经网络模型预测的第i个样本退火材料的抗拉强度、屈服强度和延伸率均非常接近第i个样本退火材料的实际的真实抗拉强度、真实屈服强度和真实延伸率,并且可决系数r2为0.99991,非常接近1,说明神经网络模型预测的准确性较高。
[0121]
在验证完神经网络模型之后,可以利用验证完的神经网络模型对待开发的退火材料进行力学性能预测。图8至图10为利用训练好的神经网络模型预测的板材厚度h、退火温度t、保温时间t的力学性能变化图。如图8至图10所示,利用训练好的神经网络模型还可以预测出退火材料在板材厚度h、退火温度t和保温时间t中的各个因素下力学性能变化,包括但不限于退火材料的抗拉强度、屈服强度和延伸率。
[0122]
基于上述实施例提供的退火材料的力学性能预测方法,相应地,本技术还提供了
退火材料的力学性能预测装置的具体实现方式。请参见以下实施例。
[0123]
如图11所示,本技术实施例提供的退火材料的力学性能预测装置110包括以下模块:
[0124]
获取模块1101,用于获取目标退火材料拟要采用的退火工艺参数;
[0125]
预测模块1102,用于基于预先训练好的神经网络模型和所述退火工艺参数,得到所述目标退火材料的力学性能预测结果;其中,所述神经网络模型为通过学习样本退火材料的退火工艺参数与所述样本退火材料的力学性能结果的映射关系而得到。
[0126]
本技术实施例的退火材料的力学性能预测装置,获取模块用于获取目标退火材料拟要采用的退火工艺参数;预测模块用于基于预先训练好的神经网络模型和退火工艺参数,得到目标退火材料的力学性能预测结果;其中,神经网络模型为通过学习样本退火材料的退火工艺参数与样本退火材料的力学性能结果的映射关系而得到。通过神经网络模型解决了退火材料的力学性能预测的问题,并能同时兼顾退火工艺参数中的不同影响因素对最终力学性能的不同影响,降低了退火材料的力学性能预测所花费的材料成本、试验成本和时间成本,提高了力学性能预测的准确度。
[0127]
在一些实施例中,本技术实施例提供的退火材料的力学性能预测装置110还可以包括退火工艺参数确定模块,退火工艺参数确定模块用于将所述目标退火材料的力学性能预测结果与预先确定的目标力学性能结果进行对比;在所述目标退火材料的力学性能预测结果与所述目标力学性能结果之间的偏差大于预设第一阈值的情况下,对所述目标退火材料拟要采用的退火工艺参数进行调整,得到调整后的退火工艺参数;基于所述神经网络模型和所述调整后的退火工艺参数,得到所述目标退火材料的力学性能预测结果,并返回所述将所述目标退火材料的力学性能预测结果与预先确定的目标力学性能结果进行对比的步骤,直至所述偏差小于或等于所述预设第一阈值;将所述偏差小于或等于所述预设第一阈值时对应的退火工艺参数,确定为所述目标退火材料最终采用的退火工艺参数。
[0128]
在一些实施例中,本技术实施例提供的退火材料的力学性能预测装置110还可以包括训练模块,训练模块用于获取所述样本退火材料的退火工艺参数和所述样本退火材料的力学性能结果;基于对数函数、指数函数和/或幂函数对所述样本退火材料的退火工艺参数进行预处理,得到所述样本退火材料预处理后的退火工艺参数;将所述样本退火材料预处理后的退火工艺参数和所述样本退火材料的力学性能结果随机打乱,并选取部分所述样本退火材料预处理后的退火工艺参数和部分所述样本退火材料的力学性能结果作为所述神经网络模型的训练数据;基于所述训练数据对所述神经网络模型进行训练,得到训练好的所述神经网络模型。
[0129]
在一些实施例中,训练模块具体用于根据所述样本退火材料预处理后的退火工艺参数与所述样本退火材料的力学性能结果,计算皮尔森相关性系数;根据所述皮尔森相关性系数与预设第二阈值之间的对比结果,去除部分预处理后的退火工艺参数,得到相关性计算后的退火工艺参数;将所述相关性计算后的退火工艺参数和所述样本退火材料的力学性能结果随机打乱。
[0130]
在一些实施例中,训练模块具体用于从所述样本退火材料预处理后的退火工艺参数和所述样本退火材料的力学性能结果中,随机抽取q个子退火工艺参数和p个子力学性能结果,组成多个训练矩阵;所述退火工艺参数包括m个所述子退火工艺参数,所述力学性能
结果包括n个所述子力学性能结果,q≤m,p≤n,q、p、m和n均为正整数;基于所述多个训练矩阵对所述神经网络模型进行训练,得到训练好的所述神经网络模型。
[0131]
在一些实施例中,本技术实施例提供的退火材料的力学性能预测装置110还可以包括模型建立模块,用于确定所述神经网络模型的隐含层节点数;根据所述样本退火材料的退火工艺参数、所述样本退火材料的力学性能结果和所述神经网络结构的类型,确定所述神经网络模型的归一化计算方式;将线性激活函数确定为所述神经网络模型的隐含层的激活函数;将列文伯格函数确定为所述神经网络模型的训练函数。
[0132]
在一些实施例中,本技术实施例提供的退火材料的力学性能预测装置110还可以包括验证模块,用于将除所述训练数据之外的另一部分所述样本退火材料预处理后的退火工艺参数和另一部分所述样本退火材料的力学性能结果,作为所述神经网络模型的验证数据;基于所述验证数据对训练好的所述神经网络模型进行验证。
[0133]
在一些实施例中,验证模块具体用于根据所述验证数据中第i个样本退火材料的实际的力学性能结果和所述神经网络模型输出的第i个样本退火材料的力学性能预测结果,计算可决系数,i为正整数;和/或,计算所述第i个样本退火材料的实际的力学性能结果与所述神经网络模型输出的第i个样本退火材料的力学性能预测结果之间的差值;根据所述可决系数和/或所述差值,确定所述神经网络模型的训练结果。
[0134]
图11所示装置中的各个模块/单元具有实现图1中各个步骤的功能,并能达到其相应的技术效果,为简洁描述,在此不再赘述。
[0135]
基于上述实施例提供的退火材料的力学性能预测方法,相应地,本技术还提供了电子设备的具体实现方式。请参见以下实施例。
[0136]
图12示出了本技术实施例提供的电子设备的硬件结构示意图。
[0137]
电子设备可以包括处理器1201以及存储有计算机程序指令的存储器1202。
[0138]
具体地,上述处理器1201可以包括中央处理器(central processing unit,cpu),或者特定集成电路(application specific integrated circuit,asic),或者可以被配置成实施本技术实施例的一个或多个集成电路。
[0139]
存储器1202可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器1202可包括硬盘驱动器(hard disk drive,hdd)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(universal serial bus,usb)驱动器或者两个或更多个以上这些的组合。在一个示例中,存储器1202可以包括可移除或不可移除(或固定)的介质,或者存储器1202是非易失性固态存储器。存储器1202可在综合网关容灾设备的内部或外部。
[0140]
在一个示例中,存储器1202可以是只读存储器(read only memory,rom)。在一个示例中,该rom可以是掩模编程的rom、可编程rom(prom)、可擦除prom(eprom)、电可擦除prom(eeprom)、电可改写rom(earom)或闪存或者两个或更多个以上这些的组合。
[0141]
存储器1202可以包括只读存储器(rom),随机存取存储器(ram),磁盘存储介质设备,光存储介质设备,闪存设备,电气、光学或其他物理/有形的存储器存储设备。因此,通常,存储器包括一个或多个编码有包括计算机可执行指令的软件的有形(非暂态)计算机可读存储介质(例如,存储器设备),并且当该软件被执行(例如,由一个或多个处理器)时,其可操作来执行参考根据本技术的一方面的方法所描述的操作。
[0142]
处理器1201通过读取并执行存储器1202中存储的计算机程序指令,以实现图1所
示实施例中的方法/步骤s101至s102,并达到图1所示实例执行其方法/步骤达到的相应技术效果,为简洁描述在此不再赘述。
[0143]
在一个示例中,电子设备还可包括通信接口1203和总线1210。其中,如图12所示,处理器1201、存储器1202、通信接口1203通过总线1210连接并完成相互间的通信。
[0144]
通信接口1203,主要用于实现本技术实施例中各模块、装置、单元和/或设备之间的通信。
[0145]
总线1210包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(accelerated graphics port,agp)或其他图形总线、增强工业标准架构(extended industry standard architecture,eisa)总线、前端总线(front side bus,fsb)、超传输(hyper transport,ht)互连、工业标准架构(industry standard architecture,isa)总线、无限带宽互连、低引脚数(lpc)总线、存储器总线、微信道架构(mca)总线、外围组件互连(pci)总线、pci-express(pci-x)总线、串行高级技术附件(sata)总线、视频电子标准协会局部(vlb)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线1210可包括一个或多个总线。尽管本技术实施例描述和示出了特定的总线,但本技术考虑任何合适的总线或互连。
[0146]
另外,结合上述实施例中的退火材料的力学性能预测方法,本技术实施例可提供一种计算机可读存储介质来实现。该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现上述实施例中的任意一种退火材料的力学性能预测方法。计算机可读存储介质的示例包括非暂态计算机可读存储介质,如电子电路、半导体存储器设备、rom、随机存取存储器、闪存、可擦除rom(erom)、软盘、cd-rom、光盘、硬盘。
[0147]
需要明确的是,本技术并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本技术的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本技术的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
[0148]
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(application specific integrated circuit,asic)、适当的固件、插件、功能卡等等。当以软件方式实现时,本技术的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、rom、闪存、可擦除rom(erom)、软盘、cd-rom、光盘、硬盘、光纤介质、射频(radio frequency,rf)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
[0149]
还需要说明的是,本技术中提及的示例性实施例,基于一系列的步骤或者装置描述一些方法或系统。但是,本技术不局限于上述步骤的顺序,也就是说,可以按照实施例中提及的顺序执行步骤,也可以不同于实施例中的顺序,或者若干步骤同时执行。
[0150]
上面参考根据本技术的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本技术的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给
通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
[0151]
以上所述,仅为本技术的具体实施方式,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。应理解,本技术的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本技术揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本技术的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1