基于云边协同框架的流量预测方法及装置

文档序号:27947783发布日期:2021-12-11 15:25阅读:392来源:国知局
基于云边协同框架的流量预测方法及装置

1.本发明涉及物联网流量预测技术领域,特别涉及一种基于云边协同框架的流量预测方法及装置。


背景技术:

2.电力物联网中连接泛在化的实现,使得其感知层的用户设备将产生多种类别的业务,同时,一旦网络中对于某个服务器或者数据节点的访问量激增,极有可能直接出现网络拥塞的情况。流量预测可以提前完成网络情况感知,避免对于未来网络拥塞情况的未知。如何提升预测准确程度,同时进一步加快预测结果的生成周期,是目前物联网场景下流量数据预测需要考虑的问题。
3.因传输层中各项业务处理时产生的这些流量数据具有明显的突发性、多类别和海量性特征,难以使用固定的传统算法对其进行准确的预测。因此,如何提升预测准确程度,是目前物联网场景下流量数据预测需要解决的问题。


技术实现要素:

4.针对现有技术的上述问题,本文的目的在于,提供一种基于云边协同框架的流量预测方法及装置,解决了传输占用带宽过大的技术问题,降低了流量预测的时间,并提升了流量预测的准确性。
5.为了解决上述技术问题,本文的具体技术方案如下:
6.一方面,本文提供一种基于云边协同框架的流量预测方法,所述云边协同框架包括相互通信的云端处理层、边缘感知层和数据生成层,所述云端处理层包括只是一个云端,所述边缘感知层包括多个相互通信的边缘节点,每个所述边缘节点均与所述云端通信,所述数据生成层包括多个能够产生原始流量数据的设备,每个所述设备对应一个边缘节点;所述方法包括:
7.利用所述边缘感知层中的各个边缘节点采集所述数据生成层中对应设备产生的原始流量数据;
8.各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行特征提取,获得对应的时间序列流量数据;
9.各个边缘节点将获得的所述时间序列流量数据发送至所述云端处理层,所述云端处理层利用预先配置的基于时间注意力机制的长短时记忆网络模型根据所述时间序列流量数据进行流量预测,生成流量预测结果。
10.进一步地,所述各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行特征提取,获得对应的时间序列流量数据,包括:
11.各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行分类,得到不同类别的类别流量数据,并对所述类别流量数据进行特征提取,获得不同类别的类别流量数据对应的时间序列流量数据。
12.进一步地,所述云端处理层利用预先配置的基于时间注意力机制的长短时记忆网络模型根据所述时间序列流量数据进行流量预测,生成流量预测结果,包括:
13.所述云端处理层分别根据不同类别的历史时间序列流量数据训练对应的预先配置的基于时间注意力机制的长短时记忆网络模型,利用训练好的基于时间注意力机制的长短时记忆网络模型分别对对应类别的时间序列流量数据进行流量预测,生成不同类别的所述时间序列流量数据对应的流量预测结果。
14.进一步地,所述方法还包括:
15.所述边缘节点向所述云端发送预测结果请求;
16.所述云端根据所述预测结果请求将对应的流量预测结果回传至所述边缘节点。
17.进一步地,所述方法还包括:
18.所述边缘节点获取当前网络的数据传输速度,若所述数据传输速度小于预设网络传输速度,则向邻近边缘节点发送预测结果获取请求;
19.所述边缘节点接收所述邻近边缘节点基于所述预测结果获取请求返回的流量预测结果。
20.进一步地,所述方法还包括:
21.所述边缘节点判断所述邻近边缘节点返回的所述流量预测结果对应的类别是否少于所述边缘节点对应的类别数量,若少于,则向所述邻近边缘节点发送联合学习请求;
22.所述邻近边缘节点基于接收到的所述联合学习请求对预先配置的长短时记忆网络模型进行优化训练,获得所述长短时记忆网络模型的梯度参数,并将所述长短时记忆网络模型的梯度参数反馈至发起所述联合学习请求的发起边缘节点;
23.所述发起边缘节点根据所述邻近边缘节点发送的梯度参数更新所述发起边缘节点内的长短时记忆网络模型的梯度参数,并利用更新后的长短时记忆网络模型根据所述发起边缘节点在预设时间内存储的时间序列流量数据进行流量预测,得到对应的流量预测结果。
24.进一步地,所述简化字符级卷积神经网络模型包括两个卷积层、两个池化层和两个全连接层。
25.另一方面,本发明提供一种基于云边协同框架的流量预测装置,所述装置包括:
26.数据采集模块,被配置为执行利用边缘感知层中的各个边缘节点采集所述数据生成层中对应设备产生的原始流量数据;
27.特征提取模块,被配置为执行各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行特征提取,获得对应的时间序列流量数据;
28.预测结果生成模块,被配置为执行各个边缘节点将获得的所述时间序列流量数据发送至所述云端处理层,所述云端处理层利用预先配置的基于时间注意力机制的长短时记忆网络模型根据所述时间序列流量数据进行流量预测,生成流量预测结果。
29.另一方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条指令或至少一段程序,所述至少一条指令或至少一段程序由处理器加载并执行以实现如上述所述基于云边协同框架的流量预测方法。
30.再一方面,本发明提供一种电子设备,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,
所述至少一个处理器通过执行所述存储器存储的指令实现如上述所述基于云边协同框架的流量预测方法。
31.采用上述技术方案,本文所述的一种基于云边协同框架的流量预测方法及装置,通过云边协同框架中的边缘感知层采集数据生成层中产生的流量数据,边缘感知层对流量数据进行特征提取得到时间序列流量数据,并将时间序列流量数据上传至对应的云端处理层,在需要进行流量预测时,云端处理层可以利用预先配置时间注意力机制的长短时记忆网络模型对未来一段时间的流量进行预测,由于云端处理层中的样本数据足够多,数据处理能力比较强大,可以提高训练的模型在流量预测方面的准确性以及数据处理效率。
32.为让本文的上述和其他目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附图式,做详细说明如下。
附图说明
33.为了更清楚地说明本文实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本文的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
34.图1示出了本文实施例提供的一种云边协同框架的结构示意图;
35.图2示出了本文实施例中提供的一种基于云边协同框架的流量预测方法的步骤示意图;
36.图3示出了本文实施例提供的一种简化字符级卷积神经网络模型的结构示意图;
37.图4示出了本文实施例中提供的另一种基于云边协同框架的流量预测方法的步骤示意图;
38.图5示出了本文实施例中提供的又一种基于云边协同框架的流量预测方法的步骤示意图;
39.图6示出了本文实施例中提供的再一种基于云边协同框架的流量预测方法的步骤示意图;
40.图7示出了本文实施例中一种基于云边协同框架的流量预测装置的结构示意图;
41.图8示出了本文实施例提供的一种基于云边协同框架的流量预测的电子设备的结构示意图。
具体实施方式
42.下面将结合本文实施例中的附图,对本文实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本文一部分实施例,而不是全部的实施例。基于本文中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文保护的范围。
43.需要说明的是,本文的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本文的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不
排他的包含,例如,包含了一系列步骤或单元的过程、方法、装置、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
44.图1示出了本文实施例提供的一种轻量化网络中间件的架构系统的结构示意图、图2示出了本文实施例提供的一种轻量化网络中间件的架构系统的应用场景示意图、图3示出了本文实施例中轻量化网络中间件集群组件的结构示意图,如图1

图3所示,所述云边协同框架包括相互通信的云端处理层、边缘感知层和数据生成层,所述云端处理层只是一个云端,所述边缘感知层包括多个相互通信的边缘节点,每个所述边缘节点均与所述云端通信,所述数据生成层包括多个能够产生原始流量数据的设备,每个所述设备对应一个边缘节点。
45.具体的,云端处理层对应设置有至少一个云端(云服务器),边缘感知层对应设置有多个边缘节点,每个边缘节点均能够与云端通信,缘节点指在靠近用户设备的网络边缘侧构建的业务平台,提供存储、计算、网络等资源,将部分关键业务应用下沉到接入边缘节点中,以减少网络传输和多级转发带来的宽度和时延损耗。边缘节点位置介于用户设备和云端之间,相比较传统的云中心,边缘节点更接近用户设备(原始流量数据)。边缘节点相比较云数据中心,具有小型化、分布式和更贴近用户设备(最后一公里)的特性,海量的数据无需再上传至云端进行处理,实现在网络边缘侧对数据的处理,减少请求响应时间、提升电池续航能力、减少网络带宽同时保证数据的安全性和私密性。边缘节点在实际部署时,会呈现多分布的状态,邻近的边缘节点可以实现数据通信,可以立即的是,邻近边缘节点是指在实际部署时物理状态下边缘节点的相邻的边缘节点,可以理解为与当前边缘节点周围的边缘节点。
46.数据生成层可以包多个用户设备,设备可以是属于物联网中常见的设备或设备集群,不同的设备或设备集群能产生不同类别的流量数据,因为物联网中包含多个设备或者设备集群,它们的分工各不相同(例如制造设备、物流设备等),不同功能导致不同业务,所以生成的业务流量也具有不同的数学特征(例如有不同的周期、峰值、数据量级等),这些特征是基于流量数据的。
47.每个设备或设备集群可以仅对应一个边缘节点,相应的,每个边缘节点可以对应有多个设备或设备集群。
48.原始流量数据可以理解为上述所述的业务流量,设备产生的原始流量数据会实时上传至对应的边缘节点中,边缘节点具备一定的存储功能,其可以采用堆栈的方式存储原始流量数据,因而,边缘节点可以存储一段时间内设备产生的原始流量数据。边缘节点可以对接收或采集的原始流量数据进行处理后上传至云端。云端可以存储对应的全部边缘节点上传的处理后的原始流量数据,其中,边缘节点的存储、数据处理等能力均低于云端。边缘节点中存储的原始流量数据的可以根据其存储能力确定,如其可以存储对应设备2

3周产生的原始流量数据。
49.为了解决上述问题,本文实施例提供了基于云边协同框架的流量预测方法,能够避免传输占用带宽过大,缩短流量预测的时间长度,提升了流量预测的准确性。如图2所示,所述方法包括以下步骤:
50.步骤s102、利用所述边缘感知层中的各个边缘节点采集所述数据生成层中对应设
备产生的原始流量数据。
51.在具体的实施过程中,边缘节点可以汇总收集与其通信的设备或设备集群产生的原始流量数据。原始流量数据从成因角度可以分为至少两种类别:一种是由设备自主生成的流量数据,例如不受人类交互影响的dns(domain name system,域名系统)、ntp(ntp是网络时间协议(network time protocol),网络时间协议是用来同步网络中各个计算机的时间的协议)等。另一种是由用户与设备交互生成的流量,例如智能灯泡根据用户要求改变亮度及颜色以及气象探查器根据推测结果向用户发出天气提醒等。每一类流量数据均是有不同数学特征的多个序列数据复合而成的,流量数据还具有短期相关性和长期相关性,短期相关性是指观测时数据之间的依赖性减少得很快,而长期相关性就是依赖性减少得慢,长相关性又可以叫长期记忆性,这两个性质都是时间序列数据的非线性特征的重要体现。时间序列数据是指随时间而变化的一系列数据。之所以是长期相关性和短期相关性相结合是因为物联网流量是复合型的数据,既有符合长期相关性也有符合短期相关性的。
52.需要说明的是,原始流量数据可以包括:数据包id、产生时间、包大小、源地址、源端口、目的地址、目的端口、协议序列号中的一种或多种,其中,包大小(packet size)即流量。
53.步骤s104、各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行特征提取,获得对应的时间序列流量数据。
54.在具体的实施过程中,物联网通信业务产生的流量数据也是随时间变化而变化,可以被看作是时间序列。由于物联网业务的复杂性,其时间序列是多类别流量数据的集合,具有长相关性和短相关性相结合的特点。同时,由于物联网所连接的设备较多,其包含的业务种类数量和单个种类的业务产生量也随之增加,因此与传统数据网相比,在某一时间段内,物联网业务数量将远远多于传统数据网络业务数量。本说明书实施例在进行流量预测之前,可以利用预先配置的简化字符级卷积神经网络模型对原始流量数据进行预处理,降低数据噪声,突出其数学特征。
55.本说明书实施例中,预先配置的简化字符级卷积神经网络模型即简化的神经网络模型charcnn,如图3所示,本技术中使用的简化字符级卷积神经网络模型可以仅包括两个卷积层、两个池化层和两个全连接层,通过两次卷积以完成该模型对原始流量数据的特征提取。以得到一列以时间远近为轴的时间序列流量数据,每一个时间序列流量数据还对应其数据包id、产生时间、源地址、源端口、目的地址、目的端口、协议序列号。
56.在一些可能的实施例中,边缘节点部分可以在确认当前节点内存储的原始流量数据总量达到简化字符级卷积神经网络模型所使用的最低要求后,使用简化字符级卷积神经网络对原始流量数据进行特征提取,并根据运行过程对节点状态进行更新。具体原理可以如下:
57.if m*t
col
≥min
sim

charcnn
58.节点状态=忙碌;
59.使用simplified_charcnn对s进行特征提取,输出d;
60.节点状态=空闲;
61.end if
62.其中,节点内存储的t
col
时间内m种原始流量数据为s,完成预处理的时间序列流量
数据为d。
63.可以理解的是,边缘节点状态的忙碌和空闲可以是根据简化字符级卷积神经网络模型的使用情况确定的,在简化字符级卷积神经网络模型使用时,边缘节点的状态为忙碌。
64.在一些可能的实施例中,预先配置的简化字符级卷积神经网络模型还可以预先对原始流量数据进行正则化,以完成对原始数据的降噪处理,而后再进行特征提取。
65.在一些可能的实施例中,预先配置的简化字符级卷积神经网络模型在训练时,两个全连接层中需要进行dropout操作,dropout会丢弃该层中的一个随机的激活参数集,即将其激活参数设置为0,从而尽量避免过拟合的发生。
66.步骤s106、各个边缘节点将获得的所述时间序列流量数据发送至所述云端处理层;所述云端处理层利用预先配置的基于时间注意力机制的长短时记忆网络模型根据所述时间序列流量数据进行流量预测,生成流量预测结果。
67.在具体的实施过程中,可以在云端处理层中配置基于时间注意力机制的长短时记忆网络模型(tpa

lstm),利用云端处理层强大的计算能力基于各个边缘节点上传的数据进行流量预测。tpa

lstm的可以适用多变量时间序列数据,其中,lstm用于时序数据隐状态的获取,获得一个需要被注意力机制加工的初始结果。与传统注意力模式不同的是,tpa可以找出与预测对象相关性最大的时间步数据,即其加权对象是变量本身而非时间步,可以有效筛选出一个时间步内多个信息中对于结果影响最大的信息,降低其他信息的干扰,提高准确度。
68.在一些可能的实施例中,所述云端处理层利用预先配置的基于时间注意力机制的长短时记忆网络模型根据所述时间序列流量数据进行流量预测,生成流量预测结果,包括:
69.所述云端处理层分别根据不同类别的历史时间序列流量数据训练对应的预先配置的基于时间注意力机制的长短时记忆网络模型,利用训练好的基于时间注意力机制的长短时记忆网络模型分别对对应类别的时间序列流量数据进行流量预测,生成不同类别的所述时间序列流量数据对应的流量预测结果
70.在具体的实施过程中,可以使用基于时间注意力机制的长短时记忆网络模型对对应类别的时间序列流量数据进行数据的特征学习和预测。基于时间注意力机制的长短时记忆网络模型可以有多个,每个基于时间注意力机制的长短时记忆网络模型对应时间序列流量数据的一个类别。云端存储有多种类别的时间序列流量数据,在生成流量预测结果之前,云端可以对存储的对应类别的时间序列流量数据进行划分,划分出训练集c
train
和测试集c
test
,测试集c
test
可以根据需要的流量预测结果对应的时间周期长度确定。其中,训练集c
train
包括历史上传的对应类别的时间序列流量数据。
71.具体地,可以建立基于时间注意力机制的长短时记忆网络模型,基于时间注意力机制的长短时记忆网络模型中包括多个模型参数,模型参数可以表示约束条件,具体可以根据专家经验等进行设置。可以利用训练集c
train
中的时间序列流量数据,对基于时间注意力机制的长短时记忆网络模型进行模型训练。将训练集c
train
中的一段时间的时间序列流量数据作为输入,将训练集c
train
中的一段时间的时间序列流量数据对应的未来一端时间的作为时间序列流量数据作为模型的输出,对基于时间注意力机制的长短时记忆网络模型中的模型参数进行不断的调整,直至基于时间注意力机制的长短时记忆网络模型达到预设要求如:满足预设精度、模型参数调整次数满足预设次数要求,则完成模型训练。
72.基于训练集c
train
进行模型训练,构建基于时间注意力机制的长短时记忆网络模型可以识别未来一端时间的时间序列流量数据的分别,可以提高流量感知的准确性。将测试集c
test
输入到训练好的基于时间注意力机制的长短时记忆网络模型后,输出对应的流量预测结果。可以理解的是,不同类别对应的模型采用相同的训练方式,其对应的模型参数可以是不同的。其中,测试集c
test
、训练集c
train
可以理解为上述实施例中记载的历史时间序列流量数据,可以将边缘节点采集并处理后获得的历史时间序列流量数据划分两个集合,分别为测试集c
test
和训练集c
train
。其中,流量预测结果是未来一段时间内的流量数据序列,即每个时间节点对应的流量大小组成的数据矩阵。流量预测结果是在历史时间序列流量数据的前提下通过已完成训练的基于时间注意力机制的长短时记忆网络模型获取未来一定时间内的流量预测结果。
73.具体的,基于时间注意力机制的长短时记忆网络模型的执行过程可以包括:
74.首先,利用lstm对时间序列流量数据进行预处理,得到每个时间步的隐状态h
i
(列向量),每个h
i
维度为m。其中,w是滑窗窗口长度,得到的隐状态矩阵h={h
t

w
,h
t

w+1
,...,h
t
‑1}。其中,隐状态矩阵的行列向量分别表征为单个变量在所有时间步下状态,即同一变量的所有时间步构成的向量;单个时间步状态,即同一时间步下的所有变量构成的向量。
75.而后,利用cnn进行时间模式的检测。即对于隐状态矩阵h的第i行,使用k个cnn过滤器进行特征提取(沿行向量计算卷积)。
76.进而,使用时间模式注意力机制对相关变量进行权重计算,筛选出最为重要的相关变量,即通过对h^c矩阵的每一行做加权求和,得到输出v
t

77.最后,添加所有时间序列流量数据对h
t
的影响,得到最终的输出结果y
t

1+δ
=w
h

(w
h
h
t
+w
v
v
t
)。预测节点模型的输出是未来一段时间内的流量数据矩阵。
78.lstm用于时序数据隐状态的获取,获得一个需要被注意力机制加工的隐状态矩阵。注意力机制是将与预测对象相关性最大的数据进行加权,从而得到较为准确的结果。传统注意力机制的加权对象是时间步即隐状态矩阵中的隐向量,而tpa机制的加权对象是相关变量即隐状态矩阵中的某一维度下的所有隐向量,这样可以直接对多个时间步进行加权,提升准确度。
79.示例地,云端生成流量预测结果的原理可以参考如下:
80.初始化云端流量数据集c;
81.while接收到d do
82.更新c;
83.划分训练集c
train
,测试集c
test

84.使用tpa

lstm对c
train
进行训练,由c
test
生成预测结果p;
85.发送给边缘节点;
86.end while
87.本说明书实施例提供的基于云边协同框架的流量预测方法中的基于时间注意力机制的长短时记忆网络模型适用于时间序列特征数据,在进行具有长相关性的时序流量数据预测时具有较为优秀的表现。尤其是为克服长期依赖问题而提出的长短时记忆网络(long short term memory,lstm),可以对输入的时间序列流量数据进行有选择性地保留和传递,进一步加强了对长相关性时间序列数据的预测准确程度。然而,结合当前物联网场
景,其作为输入的数据体量必然较大,数据特征也较为复杂,因此注意力机制的使用可以集中关注输入中的某些关键信息并忽略与预测结果相关性较低的信息,使得lstm可以从更大的数据集中挑选出更为有用的信息。
88.其次,本技术将基于时间注意力机制的长短时记忆网络模型部署在云端,由于云端中云计算部署难度低、可扩展性强、访问不受限,可通过云端的强大计算能力对数据进行分析并给出相应结果。边缘计算是针对云计算进行的计算能力下沉,不同于云计算的网络中心集中式架构,主要依靠边缘节点对原始数据进行分类和特征提取,边缘侧的调动使得数据处理过程在物理层面得到了传输距离简化。本技术将云计算与边缘计算相结合,既可以借助云计算的强大算力和存储空间完成精确度较高的预测过程,又可以在边缘计算的支持下完成对原始数据的提前处理从而提升响应速度。
89.并且,基于时间注意力机制的长短时记忆网络模型可以根据不同的类别的时间序列流量数据生成相应类别的预测结果,从而获取未来一段时间内流量的变化趋势和具体范围。云计算和边缘计算技术的协作也进一步缩减了数据处理的周期,优化用户的使用体验。
90.在一些可能的实施例中,所述各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行特征提取,获得对应的时间序列流量数据,包括:
91.各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行分类,得到不同类别的类别流量数据,并对所述类别流量数据进行特征提取,获得不同类别的类别流量数据对应的时间序列流量数据。
92.在具体的实施过程中,预先配置的简化字符级卷积神经网络模型还可以对采集的原始流量数据进行分类,以确定每个原始流量数据对应的类别。可以理解的是,分类可以实现对原始流量数据降噪并明确原始流量数据的数学特征,即从原始流量数据中提取出较明显的数学特征,如,设备自主生成类数据是均值500,峰值1500,周期为200秒,多数由a类设备发出,由b类设备接收,通过上述数字特征的比对即可确定出原始流量数据中哪些属于设备自主生成类。
93.可以理解的是,云端负责收集所有边缘节点上传的不同类别的时间序列流量数据,并将时间序列流量数据分类存储。云端可以依靠其无限的资源,对时间序列流量数据进行长期的存储,即可以完成长期数据收集,为基于时间注意力机制的长短时记忆网络模型提供大量样本数据,提升模型预测结果的精度。
94.本技术通过预先配置的简化字符级卷积神经网络模型对原始流量进行分类和特征提取,可以减少原始数据的数据量,即降低了边缘节点存储空间,同时强化数据特征,也能够解决云端存储的数据冗余,避免云端接收大量冗余的时间序列流量数据。
95.在上述实施例基础上,本说明书一个实施例中,图4示出了本文实施例中提供的另一种基于云边协同框架的流量预测方法的步骤示意图,如图4所示,所述方法还包括:
96.步骤s402、所述边缘节点向所述云端发送预测结果请求。
97.在具体的实施过程中,预测结果请求中可以携带有所在边缘节点的类别,即边缘节点发出的预测结果请求可以表征其需要的类别的流量预测结果。预测结果请求可以是边缘节点定期发送的、边缘节点的单个时间单位接收到的原始流量数据大于预设流量阈值时发送的或边缘节点中不存在对应的流量预测结果时发送的。其中,单个时间单位可以是一
天、一小时或一分钟。
98.步骤s404、所述云端根据所述预测结果请求将对应的流量预测结果回传至所述边缘节点。
99.在具体的实施过程中,云端可以定期根据采集的时间序列流量数据对全部类别的时间序列流量数据进行流量预测,并将生成的流量预测结果p。在接收到边缘节点发送的预测结果请求后,可以将对应类别的流量预测结果回传至对应的边缘节点,也可以将全部类别的流量预测结果回传至全部边缘节点。可以理解的是,边缘节点在接收到流量预测结果p后可以通过其配置的显示器进行显示。
100.示例地,当边缘节点中不存储在流量预测结果时,可以参考如下过程获取流量预测结果:
101.检测是否存在流量预测结果,是则检测结果为1,否为0;
102.if检测结果为0
103.上传预测结果请求;
104.接收流量预测结果p;
105.end if
106.else检测结果为1
107.显示流量预测结果p;
108.end else。
109.边缘节点初始状态为空闲,边缘节点内存储的t
col
时间内m种类别原始流量数据为s,完成特征提取的时间序列流量数据为d,最终输出的t
p
时间内n种流量预测结果为p。其中,s,d和p均为某一时间段内多类别流量数值组成的矩阵。
110.本说明书实施例中的边缘节点可以主动获取对应类别的原始流量数据的流量预测结果,能够保证边缘节点提前完成网络情况感知,避免对于未来网络拥塞情况的未知。边缘节点可以根据流量预测结果直接控制不同设备所需资源的分配调度,进一步降低对云端的依赖。
111.当然,云端也可以在得到流量预测结果后,主动将预测结果返回给对应的边缘节点,本说明书实施例对此不作具体限定。
112.在上述实施例基础上,本说明书一个实施例中,图5示出了本文实施例中提供的又一种基于云边协同框架的流量预测方法的步骤示意图,如图5所示,还包括:
113.步骤s502、所述边缘节点获取当前网络的数据传输速度,若所述数据传输速度小于预设网络传输速度,则向邻近边缘节点发送预测结果获取请求。
114.在具体的实施过程中,当前网络的数据传输速度是指云端至边缘节点的下行速度r
now
,预设网络传输速度可以根据网络的实际情况进行设定。
115.当数据传输速度小于预设网络传输速度时,则可以判定边缘节点与云端的网络条件较差,即可以确定边缘节点接收不到云端发送的流量预测结果,此时,边缘节点可以向邻近边缘节点发送预测结果获取请求,其中,邻近边缘节点可以理解与当前边缘节点距离在指定范围内且能够通信的其他边缘节点。预测结果获取请求中可以携带有所在边缘节点的原始流量数据的类别。
116.步骤s504、所述边缘节点接收所述邻近边缘节点基于所述预测结果获取请求返回
的流量预测结果。
117.在具体的实施过程中,邻近边缘节点可以将其接收到的云端发送的流量预测结果发送给预测结果获取请求对应的边缘节点。其中,邻近边缘节点反馈的流量预测结果是来自本节点在接收预测结果获取请求之前从云端接收到的流量预测结果,流量的具体类别则由请求内容决定。
118.本说明书实施例能够在边缘节点与云端通信不畅时,向邻近边缘节点发送预测结果获取请求,以得到云端生成的流量预测结果,避免由于通信不畅造成边缘节点对于未来网络拥塞情况的未知。边缘节点具有两种状态,空闲状态可以对来自其他边缘节点的请求进行响应,而忙碌状态会拒绝一切请求。边缘节点初始状态为空闲,节点内存储的t
col
时间内m种原始流量数据为s,完成预处理的时间序列流量数据为d,最终输出的t
p
时间内n种流量预测结果为p。s,d和p均为某一时间段内多类别流量数值组成的矩阵。简化char

cnn所需的最低数据量为min
sim

charcnn
。当前网络下行速度为r
now
,最小下行速度为r
min
。当r
now
≤r
min
×
75%则基于确定边缘节点与云端通信不畅。
119.上述方法的具体可以参考如下:
120.if r
now
≤r
min
×
75%
121.while节点处于空闲状态do
122.for邻近边缘节点名目表do
123.发送预测结果获取请求;
124.接收来自其他节点的流量预测结果并记录其类别m
get

125.在上述实施例基础上,本说明书一个实施例中,图6示出了本文实施例中提供的再一种基于云边协同框架的流量预测方法的步骤示意图,如图6所示,所述方法还包括:
126.步骤s602、所述边缘节点判断所述邻近边缘节点返回的所述流量预测结果对应的类别是否少于所述边缘节点对应的类别数量,若少于,则向所述邻近边缘节点发送联合学习请求。
127.在具体的实施过程中,由于不同的边缘节点采集的原始流量数据的类别可能存在不同,边缘节点在接收到邻近边缘节点发送的流量预测结果后可以判断流量预测结果对应的类别是否少于边缘节点对应的类别,当类别少时,可以说明邻近边缘节点返回的预测结果不满足当前边缘节点的需求,边缘节点可以向邻近边缘节点发送联合学习请求。
128.步骤s604、所述邻近边缘节点基于接收到的所述联合学习请求对预先配置的长短时记忆网络模型进行优化训练,获得所述长短时记忆网络模型的梯度参数,并将所述长短时记忆网络模型的梯度参数反馈至发起所述联合学习请求的发起边缘节点。
129.在具体的实施过程中,需要进行联合学习的发起边缘节点向周围的邻近边缘节点发送联合学习请求,周围处于空闲状态的临近边缘节点进行请求确认。邻近边缘节点在接收到的所述联合学习请求后可以判断邻近边缘节点自身是否处于空闲状态,当处于空闲状态时才能够基于接收到的联合学习请求对预先配置的长短时记忆网络模型进行优化训练。邻近边缘节点对自身的长短时记忆网络模型进行优化训练后,可以获得长短时记忆网络模型的梯度参数,并将获得的梯度参数反馈至发起边缘节点。当邻近边缘节点处于忙碌状态时,邻近边缘节点可以拒绝边缘节点的联合学习请求。其中,忙碌状态可以是邻近边缘节点正在执行其他节点发起的联合学习或利用简化字符级卷积神经网络对原始流量数据进行
特征提取,空闲状态可以理解为边缘节点目前没有需要执行的任务。
130.邻近边缘节点在基于联合学习请求对长短时记忆网络模型进行训练时,可以先使用预先配置的简化字符级卷积神经网络模型对原始流量数据进行分类即特征提取,获得时间序列流量数据,再利用获得的时间序列流量数据对长短时记忆网络模型进行训练。当然,邻近边缘节点也可以将上传至云端处理层的时间序列流量数据存储,当接收到联合学习请求后直接使用存储的时间序列流量数据对长短时记忆网络模型进行训练。
131.步骤s606、所述发起边缘节点根据所述邻近边缘节点发送的梯度参数更新所述发起边缘节点内的长短时记忆网络模型的梯度参数,并利用更新后的长短时记忆网络模型根据所述发起边缘节点在预设时间内存储的时间序列流量数据进行流量预测,得到对应的流量预测结果。
132.在具体的实施过程中,发起边缘节点在接收到各个邻近边缘节点发送的梯度参数后,可以利用接收到的梯度参数对发起边缘节点自身的lstm模型进行更新训练,并利用更新训练获得的lstm模型根据发起边缘节点在预设时间内存储的时间序列流量数据进行流量预测,得到对应的流量预测结果。其中,发起边缘节点对自身的lstm模型进行训练的过程可以参考邻近边缘节点进行模型训练的过程,此处不再赘述。
133.本说明书实施例提供的基于云边协同框架的流量预测方法,由于边缘节点具有对数据进行处理的能力,即边缘节点可以与邻近边缘节点发起联合学习,以得到该边缘节点的流量预测结果,边缘节点可以根据预测结果直接控制不同设备所需资源的分配调度,进一步降低对云的依赖,避免设备与云端连接断开或是网络质量不高时无法得到预测结果的情况的发生。在断网状态时,边缘节点可向邻近边缘节点发出联合学习请求,处于“空闲”状态的邻近边缘节点响应该请求并进行合作,最终获得预测结果。
134.基于上述分析,本技术所提出一种基于云边协同框架的流量预测方法。首先,具有多种设备或是设备集群的数据生成层将产生大量不同类别的流量数据。其次,作为连接物联网设备和云端的中间枢纽的边缘感知层由数个边缘节点构成,每个边缘节点将搭载简化char

cnn模型对来自数据生成层的原始流量数据进行预处理,并且通过节点间的共享合作完成断网状态下的流量预测。最后,云端处理层通过tpa

lstm模型对来自边缘感知层的完成预处理的流量数据进行预测,并生成预测结果。当网络状态较差时,边缘节点间将利用联合学习框架对预处理后的流量数据进行作为应急处理的短期预测,能够实现本技术的泛用性,在提升预测精度的同时进一步优化用户体验。
135.示例地,若没有获取全部流量类别的流量预测结果,则开始联合学习,若被申请进行联合学习且节点处于空闲状态,则利用lstm模型进行训练并传递参数以协助完成联合学习。
136.云端在接收到来自边缘节点的申请后,使用tpa

lstm模型对流量数据进行训练及预测,并将预测结果发送至边缘节点。具体原理可以参考如下:
[0137][0138][0139]
另一方面,本发明提供一种基于云边协同框架的流量预测装置,图7示出了本文实施例中一种基于云边协同框架的流量预测装置的结构示意图,如图7所示,所述装置可以包括:
[0140]
数据采集模块11,被配置为执行利用边缘感知层中的各个边缘节点采集所述数据生成层中对应设备产生的原始流量数据;
[0141]
特征提取模块12,被配置为执行各个所述边缘节点利用预先配置的简化字符级卷积神经网络模型对采集到的原始流量数据进行特征提取,获得对应的时间序列流量数据;
[0142]
预测结果生成模块13,被配置为执行各个边缘节点将获得的所述时间序列流量数据发送至所述云端处理层,所述云端处理层利用预先配置的基于时间注意力机制的长短时记忆网络模型根据所述时间序列流量数据进行流量预测,生成流量预测结果。
[0143]
另一方面,本说明书实施例一种计算机可读存储介质,所述存储介质中存储有至少一条指令或者至少一段程序,所述至少一条指令或者至少一段程序由处理器加载并执行以实现如上述所述的基于云边协同框架的流量预测方法。
[0144]
再一方面,本说明书实施例提供一种多租户场景下的应用程序更新的电子设备,图8示出了本文实施例提供的一种基于云边协同框架的流量预测的电子设备的结构示意图,如图8所示,所述设备包括处理器和存储器,所述存储器中存储有至少一条指令或者至少一段程序,所述至少一条指令或者至少一段程序由所述处理器加载并执行以实现如上述任一所述的基于云边协同框架的流量预测方法。
[0145]
由于基于云边协同框架的流量预测装置、计算机可读存储介质及基于云边协同框架的流量预测设备与基于云边协同框架的流量预测方法的技术效果相同,在此不在赘述。
[0146]
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。本发明实施例所提供测试方法,其实现原理及产生的技术效果和前述系统实施例相同,为简要描述,方法实施例部分未提及之处,可参考前述系统实施例中相应内容。
[0147]
应理解,在本文的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本文实施例的实施过程构成任何限定。
[0148]
还应理解,在本文实施例中,术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系。例如,a和/或b,可以表示:单独存在a,同时存在a和b,单独存在b这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
[0149]
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本文的范围。
[0150]
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
[0151]
在本文所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
[0152]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本文实施例方案的目的。
[0153]
另外,在本文各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0154]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本文的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本文各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read

only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0155]
本文中应用了具体实施例对本文的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本文的方法及其核心思想;同时,对于本领域的一般技术人员,依据本文的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本文的限制。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1