一种销量预测方法、工具、系统、设备及存储介质

文档序号:30423865发布日期:2022-06-15 14:15阅读:82来源:国知局
一种销量预测方法、工具、系统、设备及存储介质

1.本发明属于零售企业销售决策技术领域,涉及多种预测模型的混合构建的零售企业销量预测的方法。


背景技术:

2.企业若想在激烈的商业竞争中名列前茅,就必须重视产品营销工作的开展和管理,只有这样才能提高自身的市场竞争力。销售预测就是其中一种行之有效的方法。销售预测是指在一定时期内对未来某一时间段的市场需求量及其变化情况进行科学地、定量地估计和推测,常用的方法有指数平滑法、时间序列预测法等。根据销售数据中时间序列的特点,找寻序列与时间之间的关系,并从中提取出所需要的信息,这对销售预测模型的构建作用非常大。
3.混合模型主要是指集成两个及两个以上的模型完成数据的分析和预测工作,通过组合多种模型取长补短,提高分析及预测精度。循环神经网络(recurrent neural network,rnn)可以捕捉到时间的推移顺序,因此rnn适合用来预测时间序列数据。但是rnn在训练过程中的反向传播会导致梯度爆炸和梯度消失。为了解决此问题,出现了长短时记忆神经网络(long short-term memory,lstm)模型,lstm增加了更新门、遗忘门、输出门,通过“门”来解决循环神经网络(recurrent neural network,rnn)的梯度消失问题,同时也令lstm可以维持更长时间的记忆。
4.零售企业通常积累了许多比较完善的数据信息,像是商品信息,商品销售数据等。由于线上销售的兴起,传统行业经受着巨大的压力和挑战,线下零售业受到了网络零售的不断冲击。网购已逐步成为人们购买商品的主要方式,传统的线下实体店消费模式正在转型升级,网络零售店也在汲取实体店的优势,不断创新。无论是线上零售企业还是线下零售企业都需要做好充分的准备,采取有效的应对措施。但现有技术中,由于零售企业销量的时间序列不仅含有趋势性,而且还包含一定的周期性。因此,针对零售企业项目的销售决策技术领域的建模方法的数据分析研究十分匮乏,传统的销售预测方法如计量经济学方法、投入产出分析方法、系统动力学方法以及人工神经网络方法等着眼于宏观经济分析,不能对零售企业的销量进行精准预测,无法满足现有零售企业销售的需求。因此,零售企业迫切需要一种有效的方式来对未来的销售趋势进行精准预测,为后续决策提供可靠的支持。


技术实现要素:

5.为解决现有技术中由于对零售企业销售量预测研究匮乏,导致的对零售企业销售量预测精度不够,可信度低的问题,本发明提供一种基于混合模型的销量预测方法,实现对零售企业销量的精准预测,为零售企业后续的决策提供支持。
6.为达到上述目的,本发明采用以下技术方案予以实现:
7.本发明提供一种销售量预测方法,包括以下步骤:
8.获取零售企业的销售数据;
9.对零售企业销售数据中的时间序列数据集标准化处理;
10.将标准化处理后的时间序列数据集,划分训练数据集;
11.根据训练数据集构建gru-lstm模型,对零售企业销售量进行预测。
12.优选地,获取零售企业销售数据是指通过零售企业的销售终端,包括支持线上的销售设备,基于分析需要选取零售企业的基本属性信息及时间销售数据。
13.优选地,标准化处理的方法为min-max标准化法或z-score标准化法。
14.优选地,标准化处理后的时间序列数据集映射到[-1,1]的区间上。
[0015]
优选地,划分训练数据集,是将标准化处理后的时间序列数据集划分为训练集和测试集。
[0016]
优选地,根据训练数据集构建gru-lstm模型,对零售企业销售量进行预测的具体操作为:
[0017]
根据训练数据集,设置gru-lstm模型中lstm神经网络和gru神经网络隐藏层的个数;
[0018]
设置各个神经网络隐藏层神经元的个数;
[0019]
设置gru-lstm模型中的参数;
[0020]
构建gru-lstm模型,对零售企业销售量进行预测。
[0021]
一种销量预测工具,包括:
[0022]
数据获取模块:用于获取零售企业的销售数据;
[0023]
数据处理模块:用于对零售企业销售数据中的时间序列数据集标准化处理;
[0024]
数据划分模块:用于将标准化处理后的时间序列数据集,划分训练数据集;
[0025]
销量预测模块:用于根据训练数据集构建gru-lstm模型,对零售企业销售量进行预测,并输出。
[0026]
一种销售决策系统,包含上述预测工具。
[0027]
一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
[0028]
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
[0029]
与现有技术相比,本发明具有以下有益效果:
[0030]
本发明首先将零售企业的积累的销售数据进行收集,获取零售企业的销售数据,然后,将零售企业销售数据中的时间序列数据进行标准化处理,最后将标准化处理的时间序列数据集划分训练集,并建立gru-lstm模型,实现了对零售企业的销售量进行预测。经过验证,该方法预测集的均方根误差为0.3097,平均绝对百分误差为0.2343,高于现有技术中对销量预测的其他方法的精度,因此,基于gru-lstm模型的零售企业销售数据预测精度更高,数据结果可靠性高,可为零售企业后续的决策提供有力依据,辅助决策者对企业资源的有效分配,降低企业的生产消耗成本,从而达到提高收益的目的。
[0031]
依此方法设计的零售产品销量预测工具,具有操作简单,能够快速给出零售企业销售量的预测结果,节省劳动强度,提高工作效率。包含该工具的零售产品销售决策系统,能够根据零售产品销量预测结果,辅助销售决策者对后续销售计划的决策。
附图说明
[0032]
为了更清楚的说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
[0033]
图1为本发明的销量预测方法的流程图。
[0034]
图2为本发明的销量预测工具的结构图。
[0035]
图3为本发明的实施例中构建lstm模型预测结果对比图。
[0036]
图4为本发明的实施例中构建gru-lstm模型预测结果对比图。
[0037]
图5为本发明的实施例中构建gru-lstm模型结构图。
具体实施方式
[0038]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
[0039]
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0040]
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
[0041]
在本发明实施例的描述中,需要说明的是,若出现术语“上”、“下”、“水平”、“内”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
[0042]
此外,若出现术语“水平”,并不表示要求部件绝对水平,而是可以稍微倾斜。如“水平”仅仅是指其方向相对“竖直”而言更加水平,并不是表示该结构一定要完全水平,而是可以稍微倾斜。
[0043]
在本发明实施例的描述中,还需要说明的是,除非另有明确的规定和限定,若出现术语“设置”、“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
[0044]
下面结合附图对本发明做进一步详细描述:
[0045]
首先,为凸显本发明所提供的销量预测方法所能达到的有益效果,采用单独构建lstm模型对零售企业的销量进行预测。采用lstm神经网络与传统的神经网络相比,具有可以随时传递有用的信息的优势,旧的或需要更新的信息会被“门”切断,可以避免传统神经
网络模型产生的长期依赖、梯度消失以及长距离无法训练问题。以此做对比更具有突出本发明明有益效果的意义。
[0046]
获取零售企业的销售数据,对销售数据进行标准化处理,本发明采取min-max标准化,将特征缩放到给定的最大值和最小值区域之间,这个方法把原始的数据集进行线性变换之后把数据通过转换函数映射到[0,1]之间。其转换函数为:
[0047][0048]
其中x为原始数据,x
min
为规定的最小值,x
max
为规定的最大值,x
norm
为规范化后的数据。
[0049]
构建lstm模型对零售企业产品销量进行预测。
[0050]
构建的lstm模型的神经网络层的主要组成部分如下:
[0051]
输入门(input gate):决定在当前记忆单元中存储什么新的信息;
[0052]
输出门(output gate):决定要输出的内容,一般指的是预测的结果;
[0053]
遗忘门(forget gate):判断接收到的信息中有用的部分,并将其保留在记忆单元,并将其他不重要的信息“遗忘”;
[0054]
记忆单元(cell):是lstm的关键,需要保留的内容都存储在记忆单元中。
[0055]
根据lstm组成可以看到,lstm的“门”结构对控制和保护神经元状态的作用非常大,它允许信息跨多个时间步依然得以保存,而且也允许梯度跨多个时间步传递,其中“门”结构由激活函数(sigmoid)层和矩阵逐点乘运算结合组成。其中,sigmoid函数层决定了输入信息中哪些可以被遗忘。
[0056]
lstm模型包含了三种神经网络层,分别是输入层、隐藏层和输出层。由于进行的是基于时间序列的销量预测,因此,输入层和输出层均为1维,中间层是lstm层,即隐藏层,lstm层能够有良好的记忆效果,当然,该层的层数越多,对训练的学习效果越好。但是由于隐藏层节点数越多训练时间比较长,且容易出现过拟合和欠拟合的情况,此处根据大量实验选取隐藏层节点数为100,同时经过大量实验并合理优化节省训练所占时间和资源,lstm模型选取一层lstm层,即构建的lstm模型结构为输入层、lstm层和输出层。为了防止过拟合和欠拟合的情况出现,经过大量实验,当迭代次数为200时,损失函数(loss)的值趋于平稳,因此确定迭代训练次数为200时,模型拟合效果好。参见下表:
[0057]
[0058][0059]
上表记录了模型训练的迭代次数变化情况。通过测试集损失函数的变化情况来看,lstm模型经过200次迭代之后,训练集loss值为7.4241e-04,lstm训练完成之后的模型预测值相较于真实值同样存在着很明显的时滞效应。采用该模型对销售数据进行预测,计算得到评价指标,均方根误差rmse为0.6724,平均绝对百分比误差mape为0.5400。参见图3,利用某零售企业历年的销售数据,建立lstm模型对销量预测结果的拟合对比图,其中,横坐标表示时间(月),纵坐标表示销售量数据。依据某零售企业2019年1月~2021年8月数据判断模型拟合的程度,2021年9~11月的折线为对未来三个月的预测值。可以判断,在2019年初对销量的预测较差,在2019年7~9月和2020年的7~11月对销量的增长趋势预测得较为合理,销售时间序列对应的预测值与真实值还存在着一定程度的背离。这说明训练lstm长短记忆神经网络来预测销售时间序列效果不佳。为了比较及验证模型有效性,需要选取指标进行衡量,通常选用以下两个指标对涉及的模型进行衡量:
[0060]
均方根误差记作rmse:即预测值与真实值偏差的平方比观测次数n的平方根,其中y
obs,i
为真实值,y
fore,i
为预测值,n为预测总次数,i为预测第几次,表示为:
[0061][0062]
该指标能够衡量真实值和预测值之间的偏差,rmse数值越小,表示模型拟合效果越好,越可信。
[0063]
平均绝对百分比误差记作mape:为各预测值和真实值偏差的绝对值比真实值之和除以观测次数n,其中y
obs,i
为真实值,y
fore,i
为预测值,n为预测总次数,i代表预测第几次,表示为:
[0064][0065]
当mape越小,表示模型预测精度越好。
[0066]
计算单独建立lstm模型对零售企业销量预测结果的均方根误差rmse为0.6724,mape为0.5400,表明模型拟合效果并不是很理想,预测的数据精度还不能满足现有零售企业的需要。
[0067]
参见图1,而本发明提供一种销量预测方法,以某以零售企业积累的销售数据为例,该方法包括以下步骤:
[0068]
s1:获取零售企业的销售数据:是指通过零售企业的销售终端,包括支持线上的销售设备,基于分析需要选取零售企业的基本属性信息及时间销售序列数据。
[0069]
s2:对零售企业销售数据中的时间序列数据集标准化处理:销售数据如果直接作为模型变量输入神经网络模型预测会影响模型收敛的速度,因此在数据的预处理中需要对其进行标准化处理,消除量纲的影响,常用的标准化处理的方法有min-max标准化法或z-score标准化法,本实施例优选为采用min-max标准化法,利用上述转换函数进行转换,并将标准化的时间序列数据集中的数据都被映射到了[-1,1]的区间上,原因是[-1,1]也是激活函数sigmod、tanh变化率较大的区域,将数据缩放到这个区间上神经网络的收敛速度也会因此变快。
[0070]
s3:将标准化处理后的时间序列数据集,划分训练数据集:将标准化处理后的时间序列数据集划分为训练集和测试集。二者的主要作用为训练集中的数据用来训练模型得到一个最优的参数,之后训练好的模型需要在测试集上检验模型在新数据集上的泛化能力。本实施例将训练集和测试集进行划分是以该零售企业2013年5月10日—2018年12月31日的数据划分为训练集用来训练模型,之后2019年1月1日—2021年8月31日的数据作为测试集,用来检验模型的泛化能力。
[0071]
s4:根据训练数据集构建gru-lstm模型,对零售企业销售量进行预测:根据划分好的训练集数据对模型进行参数调优,当模型训练成功后利用测试集来判断模型的预测能力。
[0072]
即根据训练数据集,设置gru-lstm模型中lstm神经网络和gru神经网络隐藏层的个数;经多次调试试验,最终确定gru-lstm模型中gru神经网络和lstm神经网络的隐藏层分别为2层。
[0073]
设置各个神经网络隐藏层神经元的个数;在训练模型的过程中,不断调试参数之后确定最优的参数值。经不断调试实验后确定gru模型中神经网络隐藏层神经元的个数分别为第一gru层设置为95,第二gru层设置为100,lstm模型中神经元的个数分别为第一lstm层设置为80,第二lstm层设置为100。
[0074]
设置gru-lstm模型中的参数:gru-lstm模型中的参数包括输入维度、输出维度、训练时间步长、单批次输入数据量参数、抛弃阈值参数、激活函数和学习率参数。
[0075]
由于gru-lstm混合神经网络的输入数据只有销售时间序列数据,因此本实施例中设置gru神经网络输入维度参数(input_dim)为1维。该神经网络输出的结果为预测的销售结果,故输出维度参数(output_dim)也为1维。
[0076]
本实施例选取的步长参数(time_steps)为5,即用5天作为一个时间窗口,用前十天所选取的因子来预测第十一天产品的销量,如此滚动预测计算,直至遍历整个选取的时间段。在步长的选取中,步长的数值选取应该适中,如果模型难以学到隐藏在时间序列中的所有信息,过长则可能导致模型对前期的数据产生“遗忘”,同样会影响模型预测的效果。经过模型的调试认为time_steps选取为5时模型预测效果最佳。
[0077]
根据训练实验将单批次输入数据量(batch_size)的参数确定为64。在梯度下降法的优化过程中,采用小批量梯度下降法,并把batch_size设置为64,之所以不使用批量梯度下降法的原因是本实施例中的数据集比较大,每次迭代都用所有样本来计算偏导数的话会使得计算量过大,训练时间过长不适合大规模数据集的运算,采用小批量梯度下降法可以在每次迭代使用一个小批量来训练模型,此种方法适合训练数据集比较大的模型并且总体会向最优化的方向进行可以提高模型的泛化能力。所以经过模型调参将模型的batch_size设置为64。
[0078]
训练过程中,“过拟合”现象时有发生,所谓过拟合是指模型在训练集上的拟合效果过好而在测试集上的泛化能力不足,即模型从训练集上学到了过多的信息而失去了一般性。本实施例主要采用抛弃阈值作用机理(dropout方法)来应对“过拟合”的情况。抛弃阈值作用机理主要是采用随机概率,对模型训练过程中的部分神经元采取隐藏处理方式。在结合以往学者的实验经验的基础上,本发明将dropout的抛弃阈值设置为0.2。
[0079]
在构建gru-lstm混合神经网络的过程中,模型的各隐藏层以及输出层一般都会使用非线性的激活函数来规避掉简单的线性组合,激活函数的选取要求单调连续并可导。激活函数的种类非常丰富,且对于不同的神经网络可以选择不同的激活函数。常见的激活函数有sigmoid函数、对数几率函数logistic、双曲正切函数tanh、修正线性单元函数relu以及由此改进过的带泄露修正线性单元函数leaky-relu、参数化修正线性单元函数prelu和随机修正线性单元函数rrelu。激活函数的特点是能识别阈值并且包含了充分的梯度信息,lstm神经网络和gru神经网络一般采用的激活函数是tanh和sigmoid函数,tanh函数的取值在[-1,1]之间,且越靠近0,其函数的导数越大,误差反向传播时梯度更新的越快,并且解决了原点对称点的问题,本实施例中确定选取sigmod函数和tanh函数作为gru-lstm模型中混合神经网络的激活函数。
[0080]
另一个重要的参数学习率(learning_rate)的选取可以影响到误差的反向传播时网络参数的更新。学习率数值的大小可以影响到模型收敛的速度,但也并非越大越好。如果学习率设置的过大可能会使步长过长,从而造成模型更新参数时发生震荡无法收敛。而如果学习率设置过小的话会使得模型的收敛速度过慢并且可能会造成过拟合。在误差反向传播时为了避免上述因学习率过大或者过小给模型训练效果带来的影响,所以本发明打算采用自适应动量的算法(adaptive momentum,adam)对梯度下降算法进行优化,adam算法可以看做是自适应学习率算法(root mean square prop,rmsprop)和动量优化算法(momentum)的结合,即adam算法既有rmsprop算法可以自适应的调节学习率的优点的同时又可以像momentum算法一样动量修正梯度更新方向,以此来对模型进行优化。
[0081]
构建gru-lstm模型,对零售企业销售量进行预测,参见图5,gru-lstm模型结构图中,在输入层t时刻,输入数据x(t),t时刻的上一时刻t-1,输入数据x(t-1),依次经过隐藏层的第一gru层、第二gru层、第一lstm层和第二lstm层的每一个神经元处理后,在输出层输
出预测结果。其中,h1(t-1)表示t-1时刻的第一gru层隐藏层数据处理状态,h1(t)表示t时刻的第一gru层隐藏层状态,并以此向两侧类推。h2(t-1)代表t-1时刻的第二gru层隐藏层状态,h2(t)表示t时刻的第二gru层隐藏层状态,并以此类推。h3(t-1)代表t-1时刻的第一lstm层隐藏层状态,h3(t)表示t时刻的第二lstm层隐藏层数据处理状态,并以此向两侧类推。h4(t-1)代表t-1时刻的第一lstm层隐藏层状态,h4(t)表示t时刻的第二lstm层隐藏层数据处理状态,并以此向改时间点两侧类推。w表示神经元对应的权重,y(t-1)和y(t)则分别代表(t-1)时刻和t时刻的数据输出。
[0082]
将迭代次数设置为200次,既可以使得模型能够得到充分的训练也保持了实验前后的一致性。经过模型的调试发现第一gru层神经元个数设置为95,第二gru层神经元个数设置为100,能够使得模型的预测效果达到最佳。在构建gru-lstm模型的过程中,参见下表,通过损失函数(loss)计算真实值和预测值的差距,以此评估模型的预测性能:
[0083]
迭代次数训练集loss测试集loss109.2507e-040.0036207.4519e-040.0028405.6929e-040.0024604.8614e-040.0026804.8557e-040.00201004.1033e-040.00171204.0783e-049.3147e-041404.2917e-040.00121604.0151e-048.8342e-041803.8843e-048.4533e-042004.0425e-047.4241e-04
[0084]
由上表可得,前10次迭代中训练集的损失函数loss值就迅速开始下降,体现了该混合模型强大的训练能力,之后虽然随着迭代次数的增加,loss值偶有增加,但是也一直都维持在一个非常低的水平。200次迭代训练完成之后,最终测试集的1oss值为5.2912e-04,低于单独的lstm模型的7.4241e-04,这也印证了经过改进过后的神经网络模型性能有了显著的提高。参见图4,为gru-lstm模型预测结果和真实值的对比图,横坐标表示时间(月),纵坐标表示销售量数据。依据2019年1月~2021年8月数据判断模型拟合的程度,2021年9~11月的折线为对未来三个月的预测值。可见,此模型能够准确预测出2019年到2021年的数据的分布趋势,且在2019年8~10月,2020年和2021年的预测值非常接近数据的实际值,因此该模型对于未来三个月的预测值可信度较高,计算出对应的rmse为0.3097,mape为0.2343。对比结果参见下表:
[0085]
模型rmsemapelstm0.67240.5400gru-lstm0.30970.2343
[0086]
由上表,根据评价指标,可以明显看出混合模型的预测精度相较lstm模型更高。实验结果证明,此混合模型结合了gru模型和lstm模型的优点,能够应用此模型对销售序列进行预测,并将其应用于销售决策系统中。
[0087]
参见图2,本发明提供一种销量预测工具,包括:
[0088]
数据获取模块:用于获取零售企业的销售数据;
[0089]
数据处理模块:用于对零售企业销售数据中的时间序列数据集标准化处理;
[0090]
数据划分模块:用于将标准化处理后的时间序列数据集,划分训练数据集;
[0091]
销量预测模块:用于根据训练数据集构建gru-lstm模型,对零售企业销售量进行预测,并输出。
[0092]
本发明提供一种零售产品销售决策系统,包含权利要求上述的预测工具。该系统支持通过企业的商品销售数据,使用混合模型对销售数据进行预测,并提供有效的销售预测结果,为企业决策者提供高效的决策辅助,从而帮助决策者进行决策,包括以下单元:
[0093]
(1)销售数据管理单元
[0094]
能够实现对企业经营的产品销售数据的增加、修改、删除、查询以及导入导出。在导入数据的过程中,用户需要指明销售数据的起始时间和终止时间,便于进行预测。该单元的数据包括产品的销售数据记录。产品的销售数据,包括id,产品名,产品销售时间,销售数量,销售价格等。一般用户可以通过账号密码登录系统,进入数据导入页面,通过导入功能导入新的数据文件到系统中。一般人员可以通过系统查询相关内容的数据记录,进行某一条数据的修改,输入新的内容替换原有的数据,从而实现修改,也可以进行数据的删除,查询出相应的数据记录,对该条记录的删除操作。管理人员在一般人员的要求下,可以对数据的属性进行相应的修改,增加新的数据属性,或者对旧的数据属性进行合适的修改,或者删除不需要的数据属性。可以使用精准查询,通过输入数据的所有相关信息,找出某一条数据记录;也可以进行模糊查询,输入数据的部分信息,或者相关条件,从而查询出具有这些信息和条件的数据记录。显示的形式可以是表格的形式,显示出数据的各个属性内容,也可以以图表的方式展示数据记录,方便观察。可以对数据信息进行导出操作。选出要导出的数据的相关内容,使得系统可以导出相对应的数据集合。
[0095]
(2)人员信息管理单元
[0096]
该单元主要是针对系统的使用人员,按照不同的职能,分为系统管理员和决策人员两种角色。对于系统管理员主要是负责维护系统安全、数据安全和管理用户信息等;决策人员主要负责使用系统进行决策分析,使用系统对未来销售进行预测,从而辅助决策人员进行决策;每个人自身数据信息存放在数据库里,包括账号密码等级等等相关信息,系统管理员可以对所有的信息进行账号密码的增删改查,修改相应的等级,一般不能对人员自身的数据信息进行修改;决策人员可以对自身的数据信息进行修改,修改账号或者密码,可以对自身身份信息进行合理修改。
[0097]
(3)决策分析单元
[0098]
包括实现数据预测及决策分析,系统中集成了eemd算法,sarima算法。点击进行预测以后系统就会对用户所导入的数据进行预处理,并采用构建的混合模型进行预测。最终系统会返回预测后的结果和准确率。系统对预测的结果进行系统分析,输出相应的辅助决策信息。该模块包括未来销售的预测和数据决策分析两部分。未来销售的预测模型产生未来销售的预测结果,数据决策分析使用产生的预测结果进行分析,提供相关的决策辅助数据,帮助决策人员进行决策。
[0099]
本发明提供一种终端设备包括:处理器、存储器以及存储在所述存储器中并可在
所述处理器上运行的计算机程序。所述处理器执行所述计算机程序时实现上述各个方法实施例中的步骤。或者,所述处理器执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能。
[0100]
所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器中,并由所述处理器执行,以完成本发明。
[0101]
所述终端设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器、存储器。
[0102]
所述处理器可以是中央处理单元(centralprocessingunit,cpu),还可以是其他通用处理器、数字信号处理器(digitalsignalprocessor,dsp)、专用集成电路(applicationspecificintegratedcircuit,asic)、现成可编程门阵列(field-programmablegatearray,fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
[0103]
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述终端设备的各种功能。
[0104]
所述终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、u盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(rom,read-onlymemory)、随机存取存储器(ram,randomaccessmemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
[0105]
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1