一种时间序列预测方法与流程

文档序号:32057132发布日期:2022-11-04 21:58阅读:140来源:国知局
一种时间序列预测方法与流程

1.本技术涉及人工智能中的时间序列分析技术领域,尤其涉及一种时间序列预测方法、装置、计算机设备及存储介质。


背景技术:

2.随着大数据和深度学习的发展,通过收集历史数据从而对未来数据进行数值上的预测是一个研究热点。时间序列的预测设计人类社会生产生活的众多领域,包括但不局限于机械、电气信号的监测、气象预测、金融走势分析等方面。
3.现有一种时间序列预测方法,即建立基于时间序列bp神经网络,根据训练集数据、上一次迭代计算对应的待预测因素的实际值和所述神经网络,进行计算得到第二输出数据,当不满足训练终止条件时,将该次迭代对应的待预测因素的实际值作为下一次迭代的输入数据中的一部分继续进行迭代计算;训练完毕后得到确定的各神经元之间的连接权重、隐含层及输出层神经元的阙值,其中所述各神经元之间的连接权重包括上一个时间段的待预测因素的影响权重;基于上一个时间段的待预测因素的实际值、本时间段内的待预测因素的影响因素值和训练完成的神经网络,得到本时间段的待预测因素的预测值。
4.然而,申请人发现,传统的实现序列预测方法虽然能够对时间序列预测做出预测,但是其应对较为复杂的信号时,不能对信号中丰富的信息进行特征提取,在预测结果上会有偏差;而且,bp神经网络受限于其性能,对于高频信号的预测往往不如循环神经网络系列,从而极大降低其预测精度。


技术实现要素:

5.本技术实施例的目的在于提出一种时间序列预测方法、装置、计算机设备及存储介质,以解决传统的实现序列预测方法存在预测精度较低的问题。
6.为了解决上述技术问题,本技术实施例提供一种时间序列预测方法,采用了如下所述的技术方案:
7.获取与目标场景对应的原始时序数据,其中,所述原始时序数据包括训练数据集以及测试数据集;
8.对所述训练数据集进行二次模态分解操作,得到模型训练数据;
9.构建基于双向长短期记忆网络的原始预测模型,并将所述模型训练数据输入至所述原始预测模型进行模型训练操作,得到目标预测模型;
10.根据所述目标测试模型对测试数据集进行时间序列预测操作,得到目标预测结果。
11.本技术提供的一种时间序列预测方法,与现有技术相比,本技术通过二次模态提高方法特征提取的能力减少神经网络的训练时间和难度,从而提高bilstm模型的预测精度;利用中心频率间隔确定变分模态分解的层数,提高分解工作效率;利用经验模态分解完成二次分解,发掘残差序列中的规律信息,有效提高时间序列的预测精度。
experts group audio layer iv,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
28.服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
29.需要说明的是,本技术实施例所提供的时间序列预测方法一般由服务器/终端设备执行,相应地,时间序列预测装置一般设置于服务器/终端设备中。
30.应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
31.实施例一
32.继续参考图2,示出了本技术实施例一提供的时间序列预测方法的一种具体实施方式的实现流程图,为了便于说明,仅示出与本技术相关的部分。
33.上述的时间序列预测方法,包括以下步骤:
34.步骤s201:获取与目标场景对应的原始时序数据,其中,原始时序数据包括训练数据集以及测试数据集。
35.步骤s202:对训练数据集进行二次模态分解操作,得到模型训练数据。
36.步骤s203:构建基于双向长短期记忆网络的原始预测模型,并将模型训练数据输入至原始预测模型进行模型训练操作,得到目标预测模型。
37.在本技术实施例中,双向长短期记忆网络是对循环神经网络、长短期记忆网络的一种改进方式,对于处理基于时间序列的预测具有一定的优势,可以有效避免时间依赖带来的梯度消失或者梯度爆炸等问题,因此选择其为时间序列预测的模型。
38.在本技术实施例中,在得到上述模型训练数据(变分模态序列

vmf分量’和经验模态序列(

imf分量’)之后,可以将归一化后的变分模态序列(vmf分量)和经验模态序列(imf分量)输入到bilstm中进行训练,使用训练后的模型对未来的测试集中的序列进行预测。
39.步骤s204:根据目标测试模型对测试数据集进行时间序列预测操作,得到目标预测结果。
40.在本技术实施例中,提供了一种时间序列预测方法,包括:获取与目标场景对应的原始时序数据,其中,所述原始时序数据包括训练数据集以及测试数据集;对所述训练数据集进行二次模态分解操作,得到模型训练数据;构建基于双向长短期记忆网络的原始预测模型,并将所述模型训练数据输入至所述原始预测模型进行模型训练操作,得到目标预测模型;根据所述目标测试模型对测试数据集进行时间序列预测操作,得到目标预测结果。与现有技术相比,本技术通过二次模态提高方法特征提取的能力减少神经网络的训练时间和难度,从而提高bilstm模型的预测精度;利用中心频率间隔确定变分模态分解的层数,提高分解工作效率;利用经验模态分解完成二次分解,发掘残差序列中的规律信息,有效提高时间序列的预测精度。
41.继续参阅图3,示出了图2中步骤s202的一种具体实施方式的流程图,为了便于说明,仅示出与本技术相关的部分。
42.在本实施例的一些可选的实现方式中,步骤s202具体包括:
43.步骤s301:根据最优变分模态分解对训练数据集进行最优分解操作,得到变分模态序列以及残差序列。
44.在本技术实施例中,变分模态分解在信号处理中是一种信号分解估计方法,该方法在获取分解分量的过程中通过迭代搜寻变分模型最优解来确定每个分量的频率中心和带宽,从而能够自适应地实现信号的频域剖分及各分量的有效分离。
45.在本技术实施例中,变分模态分解处理的是原始信号,产生的子序列在预测中对结果的影响较大;残差序列经过经验模态分解后产生的各个子序列对预测结果的影响相对较小;变分模态分解产生的序列比较平滑,便于预测,在预测的结果相比经验模态分解能更贴近真实值,因此先对原始信号进行变分模态分解,可以保证预测的大体精度不出偏差。
46.在本技术实施例中,最优变分模态分解指的是在上述传统的变分模态分解进行信号分解得到的若干个分解层数中,挑选最优分解的分解层vmf1,vmf2,

vmfn,即上述变分模态序列。
47.在本技术实施例中,通过最优变分模态分解利用中心频率间隔来选择合适的分解层数,从而有效解决因为分解层数过少依旧含有较多的谐波和噪声、分解出来序列过多降低工作效率的问题。
48.步骤s302:根据经验模态分解对残差序列进行二次分解操作,得到经验模态序列。
49.在本技术实施例中,经验模态分解(empirical mode decomposition,缩写emd)是一种新型自适应信号时频处理方法,特别适用于非线性非平稳信号的分析处理。
50.在本技术实施例中,变分模态分解由于其本身的分解特性,分解出的序列较为平滑且具有较强的规律性,因此不可避免地会出现子序列之和相对于原始序列并不使相等的,存在分解后的残差序列。由于变分模态分解产生的残差序列非常不规律,且幅值相比其他序列子并不小,若放弃不管会影响最终的预测结果。这个残差序列往往不比其他子序列的幅值小,若是在进行预测任务时不管这个残差序列,将会有不小的预测误差。若是直接将残差序列进行时间序列预测,因为残差相当于“边角料”,其波形非常复杂且不规律,预测难度比较高。对此,我们针对残差序列进行第二次分解,利用经验模态分解挖掘残差中为数不多的规则信息,得到多个imfs分量,即上述经验模态序列,使对其的预测精度得到提高。
51.步骤s303:整合变分模态序列以及经验模态序列,得到模型训练数据。
52.继续参阅图4,示出了图3中步骤s301的一种具体实施方式的流程图,为了便于说明,仅示出与本技术相关的部分。
53.步骤s401:根据变分模态分解对上述寻来你数据集进行分解操作,得到若干分解层子序列;
54.步骤s402:依次获取若干分解层子序列的中心频率间隔,并计算当前层分解层子序列与上一层分解层子序列的中心频率间隔差值;
55.步骤s403:当第n层分解层子序列的中心频率间隔与第n-1层分解层子序列的中心频率间隔的差值出现骤减时,将第n层分解层子序列确定为变分模态序列,其中,第n层分解层子序列为最优分解。
56.在本技术实施例中,变分模态分解产生的子序列规律性较强,利于输入预测模型分别进行预测。首先进行对原始时间序列进行变分模态分解,得到vmf1,vmf2,

vmfn,观察不同的分解层数下,各个子序列中心频率之间的间隔差值。若随着分解层数的增加到第n层时某两子序列之间的间隔差值相比其余相邻子序列间隔过小,即中心频率之间的间隔距离不再相对均匀,即判断分解n层为过分解,分解为n-1层时为最优分解。选取分解层数k=n-1
时分解出的子序列作为待预测子序列。
57.在本技术实施例中,通过不同分解层数下中心频率间隔的选择,确定最优的分解层数,从而有效提高时间序列的预测性能与预测效率。
58.继续参阅图5,示出了图3中步骤s303的一种具体实施方式的流程图,为了便于说明,仅示出与本技术相关的部分。
59.在本实施例的一些可选的实现方式中,上述步骤s303具体包括:
60.步骤s501:对变分模态序列以及经验模态序列进行归一化处理,得到模型训练数据。
61.在本实施例的一些可选的实现方式中,上述步骤s203具体包括:
62.根据麻雀搜索算法对原始预测模型的参数进行优化。
63.在本技术实施例中,麻雀搜索算法(sparrow search algorithm,ssa)是一种新型的群智能优化算法。
64.继续参阅图6,示出了本技术实施例一提供的均方根误差判断方法的一种具体实施方式的流程图,为了便于说明,仅示出与本技术相关的部分。
65.在本实施例的一些可选的实现方式中,上述步骤s204之后,还包括:
66.步骤s601:根据目标预测结果以及测试数据集的测试真实值计算目标预测模型的均方根误差;
67.步骤s602:若均方根误差满足预设的均方根误差阈值,则确认目标预测模型达标;
68.步骤s603:若均方根误差不满足均方根误差阈值,则确认目标预测模型不达标,需要对模型进行参数调整。
69.在本实施例的一些可选的实现方式中,均方根误差表示为:
[0070][0071]
其中,n表示测试数据集的个数;表示目标预测结果;yi表示测试真实值。
[0072]
继续参阅图7,示出了本技术实施例一提供的平均绝对百分比误差判断方法的一种具体实施方式的流程图,为了便于说明,仅示出与本技术相关的部分。
[0073]
在本实施例的一些可选的实现方式中,上述步骤s204之后,还包括:
[0074]
步骤s701:根据目标预测结果以及测试数据集的测试真实值计算目标预测模型的平均绝对百分比误差;
[0075]
步骤s702:若平均绝对百分比误差满足预设的平均绝对百分比误差阈值,则确认目标预测模型达标;
[0076]
步骤s703:若平均绝对百分比误差不满足平均绝对百分比误差阈值,则确认目标预测模型不达标,需要对模型进行参数调整。
[0077]
在本实施例的一些可选的实现方式中,平均绝对百分比误差表示为:
[0078]
[0079]
其中,n表示测试数据集的个数;表示目标预测结果;yi表示测试真实值。
[0080]
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,rom)等非易失性存储介质,或随机存储记忆体(random access memory,ram)等。
[0081]
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
[0082]
实施例二
[0083]
进一步参考图8,作为对上述图2所示方法的实现,本技术提供了一种时间序列预测装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
[0084]
如图8所示,本实施例的时间序列预测装置200包括:数据获取模块210、二次模态分解模块220、模型训练模块230以及时间序列预测模块240。其中:
[0085]
数据获取模块210,用于获取与目标场景对应的原始时序数据,其中,原始时序数据包括训练数据集以及测试数据集。
[0086]
二次模态分解模块220,用于对训练数据集进行二次模态分解操作,得到模型训练数据。
[0087]
模型训练模块230,用于构建基于双向长短期记忆网络的原始预测模型,并将模型训练数据输入至原始预测模型进行模型训练操作,得到目标预测模型。
[0088]
时间序列预测模块240,用于根据目标测试模型对测试数据集进行时间序列预测操作,得到目标预测结果。
[0089]
在本技术实施例中,双向长短期记忆网络是对循环神经网络、长短期记忆网络的一种改进方式,对于处理基于时间序列的预测具有一定的优势,可以有效避免时间依赖带来的梯度消失或者梯度爆炸等问题,因此选择其为时间序列预测的模型。
[0090]
在本技术实施例中,在得到上述模型训练数据(变分模态序列

vmf分量’和经验模态序列(

imf分量’)之后,可以将归一化后的变分模态序列(vmf分量)和经验模态序列(imf分量)输入到bilstm中进行训练,使用训练后的模型对未来的测试集中的序列进行预测。
[0091]
在本技术实施例中,提供了一种时间序列预测装置200,包括:数据获取模块210,用于获取与目标场景对应的原始时序数据,其中,原始时序数据包括训练数据集以及测试数据集。二次模态分解模块220,用于对训练数据集进行二次模态分解操作,得到模型训练数据。模型训练模块230,用于构建基于双向长短期记忆网络的原始预测模型,并将模型训练数据输入至原始预测模型进行模型训练操作,得到目标预测模型。时间序列预测模块240,用于根据目标测试模型对测试数据集进行时间序列预测操作,得到目标预测结果。与现有技术相比,本技术通过二次模态提高方法特征提取的能力减少神经网络的训练时间和
难度,从而提高bilstm模型的预测精度;利用中心频率间隔确定变分模态分解的层数,提高分解工作效率;利用经验模态分解完成二次分解,发掘残差序列中的规律信息,有效提高时间序列的预测精度。
[0092]
在本实施例的一些可选的实现方式中,上述二次模态分解220包括:最优分解子模块、二次分解子模块以及整合子模块,其中:
[0093]
最优分解子模块,用于根据最优变分模态分解对训练数据集进行最优分解操作,得到变分模态序列以及残差序列;
[0094]
二次分解子模块,用于根据经验模态分解对残差序列进行二次分解操作,得到经验模态序列;
[0095]
整合子模块,用于整合变分模态序列以及经验模态序列,得到模型训练数据。
[0096]
在本技术实施例中,变分模态分解在信号处理中是一种信号分解估计方法,该方法在获取分解分量的过程中通过迭代搜寻变分模型最优解来确定每个分量的频率中心和带宽,从而能够自适应地实现信号的频域剖分及各分量的有效分离。
[0097]
在本技术实施例中,变分模态分解处理的是原始信号,产生的子序列在预测中对结果的影响较大;残差序列经过经验模态分解后产生的各个子序列对预测结果的影响相对较小;变分模态分解产生的序列比较平滑,便于预测,在预测的结果相比经验模态分解能更贴近真实值,因此先对原始信号进行变分模态分解,可以保证预测的大体精度不出偏差。
[0098]
在本技术实施例中,最优变分模态分解指的是在上述传统的变分模态分解进行信号分解得到的若干个分解层数中,挑选最优分解的分解层vmf1,vmf2,

vmfn,即上述变分模态序列。
[0099]
在本技术实施例中,通过最优变分模态分解利用中心频率间隔来选择合适的分解层数,从而有效解决因为分解层数过少依旧含有较多的谐波和噪声、分解出来序列过多降低工作效率的问题。
[0100]
在本技术实施例中,经验模态分解(empirical mode decomposition,缩写emd)是一种新型自适应信号时频处理方法,特别适用于非线性非平稳信号的分析处理。
[0101]
在本技术实施例中,变分模态分解由于其本身的分解特性,分解出的序列较为平滑且具有较强的规律性,因此不可避免地会出现子序列之和相对于原始序列并不使相等的,存在分解后的残差序列。由于变分模态分解产生的残差序列非常不规律,且幅值相比其他序列子并不小,若放弃不管会影响最终的预测结果。这个残差序列往往不比其他子序列的幅值小,若是在进行预测任务时不管这个残差序列,将会有不小的预测误差。若是直接将残差序列进行时间序列预测,因为残差相当于“边角料”,其波形非常复杂且不规律,预测难度比较高。对此,我们针对残差序列进行第二次分解,利用经验模态分解挖掘残差中为数不多的规则信息,得到多个imfs分量,即上述经验模态序列,使对其的预测精度得到提高。
[0102]
在本实施例的一些可选的实现方式中,最优分解子模块包括:分解单元、差值计算单元以及序列确定单元,其中:
[0103]
分解单元,用于根据变分模态分解对上述寻来你数据集进行分解操作,得到若干分解层子序列;
[0104]
差值计算单元,用于依次获取若干分解层子序列的中心频率间隔,并计算当前层分解层子序列与上一层分解层子序列的中心频率间隔差值;
[0105]
序列确定单元,用于当第n层分解层子序列的中心频率间隔与第n-1层分解层子序列的中心频率间隔的差值出现骤减时,将第n层分解层子序列确定为变分模态序列,其中,第n层分解层子序列为最优分解。
[0106]
在本技术实施例中,变分模态分解产生的子序列规律性较强,利于输入预测模型分别进行预测。首先进行对原始时间序列进行变分模态分解,得到vmf1,vmf2,

vmfn,观察不同的分解层数下,各个子序列中心频率之间的间隔差值。若随着分解层数的增加到第n层时某两子序列之间的间隔差值相比其余相邻子序列间隔过小,即中心频率之间的间隔距离不再相对均匀,即判断分解n层为过分解,分解为n-1层时为最优分解。选取分解层数k=n-1时分解出的子序列作为待预测子序列。
[0107]
在本技术实施例中,通过不同分解层数下中心频率间隔的选择,确定最优的分解层数,从而有效提高时间序列的预测性能与预测效率。
[0108]
在本实施例的一些可选的实现方式中,整合子模块包括:归一化单元,其中:
[0109]
归一化单元,用于对变分模态序列以及经验模态序列进行归一化处理,得到模型训练数据。
[0110]
在本实施例的一些可选的实现方式中,上述时间序列预测装置200还包括:叠加重构模块,其中:
[0111]
叠加重构模块,用于根据麻雀搜索算法对原始预测模型的参数进行优化。
[0112]
在本实施例的一些可选的实现方式中,上述模型训练模块230还包括:参数优化子模块,其中:
[0113]
参数优化子模块,用于根据麻雀搜索算法对原始预测模型的参数进行优化。
[0114]
在本技术实施例中,麻雀搜索算法(sparrow search algorithm,ssa)是一种新型的群智能优化算法。
[0115]
在本实施例的一些可选的实现方式中,上述时间序列预测装置200还包括:均方根误差判断模块、第一结果模块以及第二结果模块,其中:
[0116]
均方根误差判断模块,用于根据目标预测结果以及测试数据集的测试真实值计算目标预测模型的均方根误差;
[0117]
第一结果模块,用于若均方根误差满足预设的均方根误差阈值,则确认目标预测模型达标;
[0118]
第二结果模块,用于若均方根误差不满足均方根误差阈值,则确认目标预测模型不达标,需要对模型进行参数调整。
[0119]
在本实施例的一些可选的实现方式中,均方根误差表示为:
[0120][0121]
其中,n表示测试数据集的个数;表示目标预测结果;yi表示测试真实值。
[0122]
在本实施例的一些可选的实现方式中,上述时间序列预测装置200还包括:
[0123]
绝对百分比误差判断模块,用于根据目标预测结果以及测试数据集的测试真实值计算目标预测模型的平均绝对百分比误差;
[0124]
第三结果模块,用于若平均绝对百分比误差满足预设的平均绝对百分比误差阈值,则确认目标预测模型达标;
[0125]
第四结果模块,用于若平均绝对百分比误差不满足平均绝对百分比误差阈值,则确认目标预测模型不达标,需要对模型进行参数调整。
[0126]
在本实施例的一些可选的实现方式中,平均绝对百分比误差表示为:
[0127][0128]
其中,n表示测试数据集的个数;表示目标预测结果;yi表示测试真实值。
[0129]
为解决上述技术问题,本技术实施例还提供计算机设备。具体请参阅图9,图9为本实施例计算机设备基本结构框图。
[0130]
所述计算机设备300包括通过系统总线相互通信连接存储器310、处理器320、网络接口330。需要指出的是,图中仅示出了具有组件310-330的计算机设备300,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(application specific integrated circuit,asic)、可编程门阵列(field-programmable gate array,fpga)、数字处理器(digital signal processor,dsp)、嵌入式设备等。
[0131]
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
[0132]
所述存储器310至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,sd或dx存储器等)、随机访问存储器(ram)、静态随机访问存储器(sram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、可编程只读存储器(prom)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器310可以是所述计算机设备300的内部存储单元,例如该计算机设备300的硬盘或内存。在另一些实施例中,所述存储器310也可以是所述计算机设备300的外部存储设备,例如该计算机设备300上配备的插接式硬盘,智能存储卡(smart media card,smc),安全数字(secure digital,sd)卡,闪存卡(flash card)等。当然,所述存储器310还可以既包括所述计算机设备300的内部存储单元也包括其外部存储设备。本实施例中,所述存储器310通常用于存储安装于所述计算机设备300的操作系统和各类应用软件,例如时间序列预测方法的计算机可读指令等。此外,所述存储器310还可以用于暂时地存储已经输出或者将要输出的各类数据。
[0133]
所述处理器320在一些实施例中可以是中央处理器(central processing unit,cpu)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器320通常用于控制所述计算机设备300的总体操作。本实施例中,所述处理器320用于运行所述存储器310中存储的计算机可读指令或者处理数据,例如运行所述时间序列预测方法的计算机可读指令。
[0134]
所述网络接口330可包括无线网络接口或有线网络接口,该网络接口330通常用于在所述计算机设备300与其他电子设备之间建立通信连接。
[0135]
本技术提供的计算机设备,通过二次模态提高方法特征提取的能力减少神经网络的训练时间和难度,从而提高bilstm模型的预测精度;利用中心频率间隔确定变分模态分解的层数,提高分解工作效率;利用经验模态分解完成二次分解,发掘残差序列中的规律信息,有效提高时间序列的预测精度。
[0136]
本技术还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的时间序列预测方法的步骤。
[0137]
本技术提供的计算机可读存储介质,通过二次模态提高方法特征提取的能力减少神经网络的训练时间和难度,从而提高bilstm模型的预测精度;利用中心频率间隔确定变分模态分解的层数,提高分解工作效率;利用经验模态分解完成二次分解,发掘残差序列中的规律信息,有效提高时间序列的预测精度。
[0138]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本技术各个实施例所述的方法。
[0139]
显然,以上所描述的实施例仅仅是本技术一部分实施例,而不是全部的实施例,附图中给出了本技术的较佳实施例,但并不限制本技术的专利范围。本技术可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本技术的公开内容的理解更加透彻全面。尽管参照前述实施例对本技术进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本技术说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本技术专利保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1