1.本公开涉及人工智能领域,尤其涉及深度学习技术领域。
背景技术:2.流体力学是力学的一个分支,研究流体本身的流动规律。然而计算流体力学较复杂,需要采用神经网络进行计算,同时模拟流体的运动情况。例如,模拟船舶、飞机等在水下或空气中的运动情况。流体力学的神经网络对应的损失函数为微分方程,在对神经网络进行训练的过程中,需要不断对微分方程进行计算,以得到损失值,并对神经网络进行训练。
3.但目前,对微分方程进行计算的方法,计算效率较低,耗费时间较长。
技术实现要素:4.本公开提供了一种用于神经网络的训练方法、装置、设备以及存储介质。
5.根据本公开的一方面,提供了一种神经网络的训练方法,包括:
6.获取样本数据集,其中,所述样本数据集包括移动对象在运动过程中进行检测的时间点,以及与所述时间点对应的位置坐标;
7.将所述样本数据集中的时间点与位置坐标输入至预训练神经网络中,以生成预测的所述移动对象的移动参数信息;
8.基于所述预测的移动参数信息,得到对应的损失值;
9.根据所述损失值对所述预训练神经网络进行训练。
10.可选的,所述根据所述损失值对所述预训练神经网络进行训练,包括:
11.基于梯度下降算法和所述损失值更新所述预训练神经网络的参数,直至所述预训练神经网络收敛,以得到目标神经网络。
12.可选的,所述基于所述预测的移动参数信息,得到对应的损失值,包括:
13.获取损失函数对应的符号化微分方程;
14.对所述符号化微分方程进行解析,得到所述符号化微分方程的求解项;
15.基于所述预测的移动参数信息对所述求解项进项计算,得到对应的损失值。
16.可选的,所述对所述符号化微分方程进行解析,得到所述符号化微分方程的求解项,包括:
17.利用第一优先级的符号对所述微分方程进行解析,得到多个计算项;
18.利用第二优先级的符号对所述多个计算项中每个计算项进行解析,得到每个计算项对应的求解项,其中,所述求解项包括导数项;
19.对每个所述求解项中的导数项进行解析,得到所述导数项对应的参数项。
20.可选的,所述基于所述预测的移动参数信息对所述求解项进项计算,得到对应的损失值,包括:
21.基于所述预测的移动参数信息对每个导数项中的参数项进行计算,以得到每个所述导数项的值;
22.基于所述预测的移动参数信息和每个所述导数项的值对每个求解项进行计算,以得到每个所述求解项的值;
23.基于所述第二优先级的符号和每个所述求解项的值对每个计算项进行计算,以得到每个所述计算项的值;
24.基于所述第一优先级的符号和每个所述计算项的值对所述符号化微分方程进行计算,以得到损失函数的值。
25.可选的,所述方法还包括:
26.获取待分析移动对象在运动过程中的时间点和所述时间点相对应的位置坐标;
27.将获取到的时间点与位置坐标输入至目标神经网络中,得到所述待分析移动对象对应的移动参数信息。
28.可选的,所述移动参数信息包括所述移动对象在位置坐标处的速度和压力。
29.根据本公开的第二方面,提供了一种神经网络的训练装置,包括:
30.获取模块,用于获取样本数据集,其中,所述样本数据集包括移动对象在运动过程中进行检测的时间点,以及与所述时间点对应的位置坐标;
31.处理模块,用于将所述样本数据集中的时间点与位置坐标输入至预训练神经网络中,以生成预测的所述移动对象的移动参数信息;
32.计算模块,用于基于所述预测的移动参数信息,得到对应的损失值;
33.训练模块,用于根据所述损失值对所述预训练神经网络进行训练。
34.可选的,所述训练模块,还用于:
35.基于梯度下降算法和所述损失值更新所述预训练神经网络的参数,直至所述预训练神经网络收敛,以得到目标神经网络。
36.可选的,所述计算模块,包括:
37.获取子模块,用于获取损失函数对应的符号化微分方程;
38.解析子模块,用于对所述符号化微分方程进行解析,得到所述符号化微分方程的计算项和求解项;
39.计算子模块,用于基于所述预测的移动参数信息对所述求解项进项计算,得到对应的损失值。
40.可选的,所述解析子模块还用于:
41.利用第一优先级的符号对所述微分方程进行解析,得到多个计算项;
42.利用第二优先级的符号对所述多个计算项中每个计算项进行解析,得到每个计算项对应的求解项,其中,所述求解项包括导数项;
43.对每个所述求解项中的导数项进行解析,得到所述导数项对应的参数项。
44.可选的,所述计算子模块还用于:
45.基于所述预测的移动参数信息对每个导数项中的参数项进行计算,以得到每个所述导数项的值;
46.基于所述预测的移动参数信息和每个所述导数项的值对每个求解项进行计算,以得到每个所述求解项的值;
47.基于所述第二优先级的符号和每个所述求解项的值对每个计算项进行计算,以得到每个所述计算项的值;
48.基于所述第一优先级的符号和每个所述计算项的值对所述符号化微分方程进行计算,以得到损失函数的值。
49.可选的,所述装置还用于:
50.获取待分析移动对象在运动过程中的时间点和所述时间点相对应的位置坐标;
51.将获取到的时间点与位置坐标输入至目标神经网络中,得到所述待分析移动对象对应的移动参数信息。
52.可选的,所述移动参数信息包括所述移动对象在位置坐标处的速度和压力。
53.根据本公开的第三方面,提供了一种电子设备,包括:
54.至少一个处理器;以及
55.与所述至少一个处理器通信连接的存储器;其中,
56.所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面中任一项所述的方法。
57.根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述第一方面中任一项所述的方法。
58.根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据上述第一方面中任一项所述的方法。
59.本公开相比于现有技术具备以下有益效果:
60.对损失函数对应的符号化微分方程进行解析,得到符号化微分方程的求解项,从而使得对符号化微分方程的计算转化为对解析出的各求解项进行计算,降低了计算的复杂度,从而缩短了计算时间,提高了计算效率,进而缩短了训练神经网络的时间,同时可以对python中sympy定义的通用符号化为微分方程进行解析,无需修改sympy后端,适用范围广,
61.应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
62.附图用于更好地理解本方案,不构成对本公开的限定。其中:
63.图1是根据本公开实施例提供的一种神经网络的训练方法的流程示意图;
64.图2是根据本公开实施例提供的一种神经网络的训练方法的流程示意图;
65.图3是根据本公开实施例提供的一种神经网络的训练方法的流程示意图;
66.图4是根据本公开实施例提供的一种神经网络的训练方法的流程示意图;
67.图5是根据本公开实施例提供的一种神经网络的训练方法的流程示意图;
68.图6是根据本公开实施例提供的一种神经网络的训练装置的结构示意图;
69.图7是用来实现本公开实施例的神经网络的训练方法的电子设备的框图。
具体实施方式
70.以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同
样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
71.人工智能(artificial intelligence,简称ai)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学。目前,ai技术具有自动化程度高、精确度高、成本低的优点,得到了广泛的应用。
72.下面参考附图描述本公开实施例的神经网络的训练方法、装置及设备。
73.图1为根据本公开实施例所提供的一种神经网络的训练方法的流程示意图,如图1所示,该方法可以包括:
74.步骤101、获取样本数据集。
75.本公开实施例中,上述样本数据集可以包括移动对象在运动过程中进行检测的时间点,以及与该时间点对应的位置坐标。以及,移动对象可以是在水中或空中运行的物体,例如船舶、飞机。
76.其中,时间点可以是移动对象在运动过程中具体的某一时刻,时间点对应的位置坐标可以为(x,y,z),其中,x、y、z分别表示在该时间点,移动对象所处位置在x、y、z轴的坐标值。
77.步骤102、将样本数据集中的时间点与位置坐标输入至预训练神经网络中,以生成预测的移动对象的移动参数信息。
78.本公开的实施例中,在将样本数据集中的时间点与位置坐标输入至预训练神经网络之前,需要初始化预训练神经网络中的参数,具体可以通过随机生成的参数对预训练神经网络进行初始化。
79.其中,移动对象的移动参数信息可以包括移动对象在位置坐标处的速度和压力。
80.具体的,当移动对象的时间点为t,位置坐标为(x,y,z),通过预训练神经网络生成预测的该移动对象在该位置坐标处的压力为p,速度为u、v、w,其中,u、v、w分别为移动对象在x、y、z方向上的速度。
81.步骤103、基于预测的移动参数信息,得到对应的损失值。
82.本公开实施例中,可以将损失函数对应的符号化微分方程解析为需要计算的各项,然后基于预测的移动参数信息对微分方程进行计算,得到对应的损失值,使得对微分方程的计算过程更加简便,从而缩短了计算时间,进而缩短了训练神经网络的时间。
83.步骤104、根据损失值对预训练神经网络进行训练。
84.本公开实施例中,根据损失值对预训练神经网络进行训练的方法可以包括:基于梯度下降算法和损失值更新预训练神经网络的参数,直至预训练神经网络收敛,以得到目标神经网络。
85.图2是根据本公开实施例提供的一种神经网络的训练方法的流程示意图,如图2所示,图1中的步骤103具体包括:
86.步骤201、获取损失函数对应的符号化微分方程。
87.本公开实施例中,用户可以通过使用python sympy模块输入损失函数对应的通用符号化微分方程。
88.示例的,假设损失函数对应的微分方程为则使用python sympy模块对应的符号化微分方程为u
·
diff(x)+v
·
diff(y)+w
·
diff(z)。
89.以及,上述预训练神经网络中的损失函数对应的微分方程可以是navier-stokes方程。
90.具体的,navier-stokes方程为:
[0091][0092][0093][0094][0095]
其中,u、t、x、y、z满足函数u(t、x、y、z);v、t、x、y、z满足函数v(t、x、y、z);w、t、x、y、z满足函数w(t、x、y、z),μ为水流或气流粘度,ρ为水流或气流密度,p为压力。
[0096]
此外,可以在对预设神经网络进行训练之前获取损失函数对应的符号化微分方程,以便在训练过程中可以直接对该符号化微分方程进行计算。
[0097]
步骤202、对符号化微分方程进行解析,得到符号化微分方程的求解项。
[0098]
本公开实施例中,符号化微分方程可以包括计算项、求解项、导数项以及参数项。以及,计算项中包括求解项,求解项中包括导数项,导数项中包括参数项。
[0099]
其中,通过对符号化微分方程进行解析,可以得到符号化微分方程的计算项、求解项、导数项以及参数项。
[0100]
本公开实施例中,可以解析python中sympy定义的通用符号化为微分方程,无需修改sympy后端,适用范围广。
[0101]
步骤203、基于预测的移动参数信息对求解项进项计算,得到对应的损失值。
[0102]
本公开实施例中,通过预测的移动参数信息对求解项进项计算,得到对应的损失值,使得对符号化微分方程的计算转化为对解析出的各求解项进行计算,降低了计算的复杂度,从而缩短了计算时间,提高了计算效率,进而缩短了训练神经网络的时间。
[0103]
图3是根据本公开实施例提供的一种神经网络的训练方法的流程示意图,如图3所示,图2中的步骤202具体包括:
[0104]
步骤301、利用第一优先级的符号对微分方程进行解析,得到多个计算项。
[0105]
本公开实施中,第一优先级的符号可以包括符号运算中的+、-。
[0106]
其中,通过步骤301的操作,可以得到微分方程中+和-两边的计算项。
[0107]
示例的,假设微分方程为上述navier-stokes方程中的第一个方程u
·
diff(x)+v
·
diff(y)+w
·
diff(z),则利用第一优先级的符号对该微分方程进行解析得到三个计算项分别为u
·
diff(x)、v
·
diff(y)、w
·
diff(z)。
[0108]
步骤302、利用第二优先级的符号对多个计算项中每个计算项进行解析,得到每个计算项对应的求解项。
[0109]
本公开实施例中,第二优先级的符号可以包括符号运算中的
×
、/。
[0110]
其中,通过步骤302的操作,可以得到每个计算项中的
×
和/两边的求解项。
[0111]
示例的,假设计算项为u
×u·
diff(x),则通过第二优先级的符号对该计算项进行解析得到两个求解项分别为u、u
·
diff(x)。
[0112]
进一步地,求解项中可以包括多种不同类型。其中,求解项的类型可以包括以下至少一种:
[0113]
函数;
[0114]
自变量;
[0115]
常数;
[0116]
导数项。
[0117]
以及,求解项可以基于本身的属性得到该求解项中的类型。示例的,上述求解项u的类型为函数,求解项u
·
diff(x)的类型为导数项。
[0118]
步骤303、对每个求解项中的导数项进行解析,得到导数项对应的参数项。
[0119]
本公开实施例中,上述导数项对应的参数项可以为以下任意一种:
[0120]
自变量;
[0121]
因变量;
[0122]
求导阶数。
[0123]
以及,若求解项中不存在导数项,则不对该求解项进行导数项的解析。
[0124]
其中,通过上述步骤可以将符号化微分方程进行拆解,得到不需要再进行拆解计算的求解项,降低了计算的复杂度,从而使得对符号化微分方程的计算转化为对解析出的各求解项进行计算,缩短了计算时间,提高了计算效率,进而缩短了训练神经网络的时间。
[0125]
图4是根据本公开实施例提供的一种神经网络的训练方法的流程示意图,如图4所示,图2中的步骤203具体包括:
[0126]
步骤401、基于预测的移动参数信息对每个导数项中的参数项进行计算,以得到每个导数项的值。
[0127]
本公开实施例中,若导数项中的参数项为自变量或因变量,则将预测的移动参数信息中的值直接代入到该导数项的参数项中,得到对应导数项的值。
[0128]
其中,若导数项中的参数项为求导阶数,则可以直接通过对应的调用函数获取。
[0129]
步骤402、基于预测的移动参数信息和每个导数项的值对每个求解项进行计算,以得到每个求解项的值。
[0130]
步骤403、基于第二优先级的符号和每个求解项的值对每个计算项进行计算,以得到每个计算项的值。
[0131]
本公开实施例中,每个求解项基于对应的第二优先级的符号进行计算,得到每个计算项的值。
[0132]
步骤404、基于第一优先级的符号和每个计算项的值对符号化微分方程进行计算,以得到损失值。
[0133]
本公开实施例中,每个计算项基于对应的第一优先级的符号进行计算,得到对应的符号化微分方程的值,同时也是对应损失值。
[0134]
图5是根据本公开实施例提供的一种神经网络的训练方法的流程示意图,如图5所示,所述方法包括:
[0135]
步骤501、获取样本数据集。
[0136]
步骤502、将样本数据集中的时间点与位置坐标输入至预训练神经网络中,以生成预测的移动对象的移动参数信息。
[0137]
步骤503、基于预测的移动参数信息,得到对应的损失值。
[0138]
步骤504、根据损失值对预训练神经网络进行训练。
[0139]
其中,关于上述步骤501~步骤504的详细介绍可以参考上述实施例中的相关介绍,本实施例在此不做赘述。
[0140]
步骤505、获取待分析移动对象在运动过程中的时间点和时间点相对应的位置坐标。
[0141]
步骤506、将获取到的时间点与位置坐标输入至目标神经网络中,得到待分析移动对象对应的移动参数信息。
[0142]
图6是根据本公开实施例提供的一种神经网络的训练装置的结构示意图,如图6所示,所述装置600包括:
[0143]
获取模块601,用于获取样本数据集,其中,样本数据集包括移动对象在运动过程中进行检测的时间点,以及与时间点对应的位置坐标;
[0144]
处理模块602,用于将样本数据集中的时间点与位置坐标输入至预训练神经网络中,以生成预测的移动对象的移动参数信息;
[0145]
计算模块603,用于基于预测的移动参数信息,得到对应的损失值;
[0146]
训练模块604,用于根据损失值对预训练神经网络进行训练。
[0147]
可选的,所述训练模块,还用于:
[0148]
基于梯度下降算法和所述损失值更新所述预训练神经网络的参数,直至所述预训练神经网络收敛,以得到目标神经网络。
[0149]
可选的,所述计算模块,包括:
[0150]
获取子模块,用于获取损失函数对应的符号化微分方程;
[0151]
解析子模块,用于对所述符号化微分方程进行解析,得到所述符号化微分方程的计算项和求解项;
[0152]
计算子模块,用于基于所述预测的移动参数信息对所述求解项进项计算,得到对应的损失值。
[0153]
可选的,所述解析子模块还用于:
[0154]
利用第一优先级的符号对所述微分方程进行解析,得到多个计算项;
[0155]
利用第二优先级的符号对所述多个计算项中每个计算项进行解析,得到每个计算项对应的求解项,其中,所述求解项包括导数项;
[0156]
对每个所述求解项中的导数项进行解析,得到所述导数项对应的参数项。
[0157]
可选的,所述计算子模块还用于:
[0158]
基于所述预测的移动参数信息对每个导数项中的参数项进行计算,以得到每个所述导数项的值;
[0159]
基于所述预测的移动参数信息和每个所述导数项的值对每个求解项进行计算,以得到每个所述求解项的值;
[0160]
基于所述第二优先级的符号和每个所述求解项的值对每个计算项进行计算,以得到每个所述计算项的值;
[0161]
基于所述第一优先级的符号和每个所述计算项的值对所述符号化微分方程进行计算,以得到损失函数的值。
[0162]
可选的,所述装置还用于:
[0163]
获取待分析移动对象在运动过程中的时间点和所述时间点相对应的位置坐标;
[0164]
将获取到的时间点与位置坐标输入至目标神经网络中,得到所述待分析移动对象对应的移动参数信息。
[0165]
可选的,所述移动参数信息包括所述移动对象在位置坐标处的速度和压力。
[0166]
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
[0167]
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
[0168]
图7示出了可以用来实施本公开的实施例的示例电子设备700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
[0169]
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(rom)702中的计算机程序或者从存储单元708加载到随机访问存储器(ram)703中的计算机程序,来执行各种适当的动作和处理。在ram 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、rom 702以及ram 703通过总线704彼此相连。输入/输出(i/o)接口705也连接至总线704。
[0170]
设备700中的多个部件连接至i/o接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0171]
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如方法xxx。例如,在一些实施例中,方法xxx可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由rom 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到ram 703并由计算单元701执行时,可以执行上文描述的方法xxx的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法xxx。
[0172]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实
现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0173]
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0174]
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0175]
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0176]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)、互联网和区块链网络。
[0177]
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps服务("virtual private server",或简称"vps")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
[0178]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,
只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
[0179]
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。