一种移动边缘云中的内容缓存部署方法与流程

文档序号:23145604发布日期:2020-12-01 13:25阅读:98来源:国知局
一种移动边缘云中的内容缓存部署方法与流程
本发明涉及移动边缘云基础架构及其缓存部署与内容交付的
技术领域
,具体涉及一种移动边缘云中的内容缓存部署方法。
背景技术
:自1978年底,移动通信从模拟通信技术发展到数字通信,再到现如今的4g时代,3gpp主导的lte技术成为全球统一的技术标准,网络带宽得到大大提升,数据业务也实现普及。移动通信网络的不断改善及智能手机、平板电脑等新型移动设备的渐进引入催生了各类用于移动连接的应用程序,随之而来的是网络流量的爆发式指数增长。智能移动终端在娱乐、生活、学习、办公、多媒体等方面也发挥着不可或缺的作用。伴随着5g的诞生,4k\8k高清视频、虚拟现实、智慧城市、自动驾驶、智能电网等各项垂直行业的应用也不断发展,对通信系统提出了更高的要求。因此,以高速率、大连接、超低时延为发展趋势的第五代移动通信技术正面临着严峻的挑战。根据思科vni(visualnetworkingindex)预测,到2022年,智能手机平均每月将产生11gb的数据流量,其中,移动视频流量将占据总流量的79%。面对大量数据请求和视频转码等计算密集型任务的压力,移动终端的能力已无法满足用户需求。考虑到用户终端有限的存储、计算资源,云计算(cloudcomputing,cc)以按需付费的方式为公众提供所需资源。云作为解决终端资源受限的有效方案,使得共享的软硬件资源、信息可以按需求提供给各种终端设备,且用户不需要了解云中的基础设施等各项细节,带来了极大的便利。但云平台提供服务虽解决了资源问题,却又带了新挑战。集中化的处理方式不仅增加了从边缘到远端核心网的传输带宽负载,也因终端设备和远端云的距离造成了一定的服务延迟,对于延迟敏感型的应用程序并不适用。为了解决上述问题,移动边缘计算(mobileedgecomputing,mec)应运而生。mec的基本思想是把云计算平台从移动核心网络内部迁移到移动接入网边缘,通过部署具备计算、存储、通信等功能的边缘节点,使传统无线接入网(radioaccessnetwork,ran)具备业务本地化条件,从而能够有效处理终端用户的高时效性业务需求,大幅度缩短端到端时延,并解决核心网络的数据流量瓶颈等相关问题。目前,mec作为5g时延降低技术之一,针对低时延业务,部署在移动网络边缘的业务服务器对流量数据进行本地卸载,从而降低对传输网和核心网带宽的要求,成为了5g的重要技术支持。移动边缘计算的关键技术有缓存、卸载和服务器部署等,其中缓存作为本发明的研究重点,是指利用无线接入网,在靠近用户的基站侧部署mec服务器,将相关热点数据提前缓存在mec服务器上,使得终端用户在请求该热点内容时可直接由mec服务器进行内容交付。相较于传统的边缘网络,用户无需等待从远端核心网获取内容再逐层回传到本地基站实现交付的漫长过程,不仅有效节省了核心网的回程链路带宽资源,预缓存热点内容带来的本地交付也能显著缩短服务响应的时延,改善用户的服务体验。然而,移动边缘计算中热点内容预缓存技术也存在以下问题:(1)缓存什么内容;(2)缓存在哪个位置;(3)如何进行内容交付以提升用户的服务质量(qualityofservice,qos)。因此,制定一个高效且智能的边缘云缓存部署方法成为了丞待解决的问题。技术实现要素:本发明的目的是为了解决现有预缓存技术中的上述问题,提供一种移动边缘云中的内容缓存部署方法,该解决方案能够在内容流行度实时变化的情况下计算出热点内容在mec中的最佳缓存部署,以满足用户对服务质量的高要求,同时最小化系统交付内容文件的总时延。本发明从缓存与组播相结合着手,针对边缘云中多小区的协作缓存部署策略提出了一种新的动态部署方法,该方法包含了对用户访问热点内容需求的精准预测、内容交付的组播路由和内容缓存的合理部署。采用差分整合移动平均自回归模型(autoregressiveintegratedmovingaveragemodel,arima)精准预测各小区用户的需求集合,选取作为组播源节点的候选基站,为后续的热点文件缓存部署打下数据基础;采用一种启发式的改进的蚁群优化组播(improvedantcolonyoptimizationmulticast,iacom)算法构建相应候选节点进行内容交付的时延最小组播树;采用一种基于组播和流行度感知的协作缓存(cooperativemulticast&popularity-awarecaching,cmpac)算法,在符合基站容量违规检测的基础上贪婪地降低系统总时延。通过以上优化和改进,在降低时延提升用户qos的同时,一定程度上缓解了5g大连接带来的带宽占用。本发明的目的可以通过采取如下技术方案达到:一种移动边缘云中的内容缓存部署方法,所述的内容缓存部署方法包括下列步骤:s1、构建一种移动边缘云的系统模型,该系统模型是由宏基站(mbs)和微基站(sbs)组成的带控制器的二层异构网络架构;每个小区配备一个mbs,mbs间通过光纤连接实现通信,每个mbs都可通过回程链路与远端核心云相连;多个低功率的sbs被部署在mbs的覆盖区域内,用户可直接由其接入的sbs提供服务,也可以由mbs提供服务;mbs通过控制链路连接到控制器,由控制器统一收集和维护各个小区内用户发出的请求情况;s2、每个宏基站配备一个mec服务器,将移动边缘云中的热点内容预缓存在宏基站的mec服务器上,实现内容交付业务下沉到网络边缘,从而缓解回程链路和远端云的压力。每个内容文件在该系统模型下只能部署在唯一的一个mec服务器上,即每个文件缓存无副本,若其他小区的用户请求该内容文件,则将缓存该文件的宏基站作为组播源,其它请求用户所在小区的mbs构成目的节点集,一定时间窗口内聚合成一个组播组,由一个宏基站组播流实现并行交付,各目的基站接收到该文件后再交付给本地用户;s3、控制器将运行时间划分为多个时隙,在每个时隙的开始,各mbs通过arima预测算法来预测各小区内用户对各个内容文件的需求集合,控制器通过各mbs的预测结果来获取用户的需求信息;s4、控制器将根据arima预测算法的预测结果,选取缓存各内容文件的候选基站,再依据基于组播和流行度感知的协作缓存算法计算出该时隙的最佳缓存部署方式,从空分配开始始终贪婪地将内容文件部署在使得系统时延最低的mec服务器上;s5、根据系统模型构造对应的网络拓扑图作为网络模型,网络模型中每一个mbs节点侧部署带计算、存储、数据处理功能的mec服务器,每条链路都设定相应的数据传输速率,各内容文件的传输时延即可依据该网络模型计算得出;s6、给定一个由文件缓存节点和请求此文件的目的节点集构成的组播组,利用改进的蚁群优化组播算法构建时延最小组播树,从而确定文件缓存在对应宏基站下的内容交付最小时延,通过与该文件的其他缓存候选节点计算出的内容交付最小时延比较,选择此文件的最终缓存位置;s7、为给定组播组构建完组播树后,每个数据包构造出的树可能存在非目的节点的叶子节点,需检查叶节点并对其进行剪枝操作;s8、移动边缘云的系统模型完成单时隙内的内容文件逐一部署后,该时隙内即可进行基于组播的内容交付,即在一个组播持续窗口内,聚合对同一内容发出请求的基站集,由一个组播流统一并行服务。进一步地,内容缓存部署方法聚焦多小区的内容缓存,以二层异构网络中的宏基站层为研究对象展开发明,由额外设置的控制器掌握全局的请求信息。考虑文件在各个小区宏基站的流行度情况和基于组播的文件传输时延,且传输时延仅考虑将文件从缓存的小区基站交付给用户所在小区基站的时延。此内容缓存部署方法虽着眼于多小区的协作缓存,但可拓展延伸至每个小区内的微基站层,同步实现小区内微基站间的缓存部署。进一步地,所述的步骤s3中,在每个时隙的开始执行arima预测算法,对文件下一时隙的流行度展开预测。将单时隙内文件在某小区被请求的次数与该文件的总请求次数的比例作为流行度评定的指标。某内容文件在某小区基站下各历史时隙的请求数可看做一个时间序列,反映此文件的用户需求随时间不断变化的趋势。导入此序列后对数据进行平稳化处理并确定差分参数d,并根据自相关和偏自相关图为模型定阶,自动筛选合适的p、q值,拟合arima(p,d,q)模型后即可预测出下一时隙该文件在指定宏基站下的请求数,并依据流行度的定义计算出下一时隙该文件的流行度。进一步地,所述的步骤s4中,单时隙内执行内容缓存部署操作时,首先将内容文件依据预测出的该时隙内各文件的总请求次数降序排序,然后从空分配开始,按照以上降序排序开始逐一部署内容文件。针对每一文件的部署,首先选取流行度较高的前k个宏基站构成缓存文件fi的候选基站集wi,依次选择候选基站集中的一个节点sn∈wi作为缓存文件fi的源节点,计算出相应的文件传输时延其中,s={sn|n=1,2,...,n}表示多小区架构下宏基站的集合,f={fi|i=1,2,...,i}表示此架构下要缓存的文件集,n为移动边缘云的系统模型中宏基站的数量,i为缓存文件数量,mi表示请求文件fi的目的基站集,d(tin)为传输缓存在宏基站sn下的文件fi的组播树,sm∈(mi\sn)表示除源节点外的目的节点集中的某一目的节点sm,为从源节点到某一目的节点sm的传输时延。由于文件fi通过一棵源节点为sn的组播树并行交付给所有目的基站,则文件fi的传输时延等于组播树的时延d(tin),即文件传输时延为从源节点到各个目的节点时延中的最大值。逐个部署内容文件的过程中,将文件缓存在最小的节点上,如果随着部署的进行,某节点处没有足够的存储空间,则按求得的k个时延升序选择缓存的节点。进一步地,所述的步骤s5中,将移动边缘云的系统模型用带权的网络拓扑图g=(v,e)进行模拟,其中,v代表通信节点集,即基站集s,e代表基站间的通信链路集,每条边e∈e都带有权值d(e),表示这条链路的传输时延,两个相邻基站sp,sq(p,q∈{1,2,...,n}且p≠q)间链路epq∈e上的传输时延即为文件大小与链路传输速率的比值,将缓存文件fi从源节点传输到除源节点外的某一目的节点sm∈(mi\sn)的时延即为两节点间路径pathnm的各边权值之和,通过组播树并行交付文件的总时延即为从源节点到各个目的节点时延中的最大值。进一步地,所述的步骤s6中,给定缓存文件fi的节点以及请求该文件的目的节点集,利用改进的蚁群优化组播算法构建时延最小组播树,设定最大迭代次数iternum,每次迭代从源节点发出c个数据包,各自构建组播树,并在每次迭代时不断更新当前最小时延组播树,每次将已经生成的树上所有节点的相邻节点作为下一步可选节点,根据蚁群算法的状态转移规则从中选择下一访问节点,加入相应链路向外延伸,组播树上每增加一条链路依据蚁群算法的信息素更新规则调整该链路的信息素浓度,直至所有目的节点都被加入到组播树中,则一次迭代结束,将当前时延最小组播树上的信息素进行全局更新,下一次迭代在此基础上进一步优化,当迭代次数达到设定的最大迭代次数,迭代结束,算法收敛于一棵时延最小组播树,则得到给定组播组对应的最小时延。进一步地,所述的步骤s7中,每次迭代,数据包传输给所有目的节点后构建的树中可能存在非目的节点的叶子节点。因此,每个数据包在完成一次交付后,需要对构建出的树进行剪枝操作,去掉与非目的节点的叶子节点相连的边,得到一棵覆盖源节点和所有目的节点的组播树。进一步地,所述的移动边缘云的系统模型中宏基站的数量n为12个。进一步地,所述的缓存文件数量i为50个。进一步地,所述的时隙的长度t为5分钟。进一步地,所述的cmpac缓存算法中选取缓存文件的候选基站的个数k设置为5个。进一步地,所述的最大迭代次数iternum设置为11次,每次迭代发出数据包的个数c为12个。本发明相对于现有技术具有如下的优点及效果:(1)本发明不同于以往缓存研究中对流行度的瞬时统计,采用流行度预测算法以实时感知文件在系统中动态变化的需求情况。将文件在宏基站下不同时隙的请求数看做一个时间序列,采用arima模型对下一时隙的请求数进行预测。此预测算法得出的文件流行度可为后续的缓存部署提供较为精准的参考。(2)本发明以内容交付方式作为切入点,考虑到用户在短时间内对热点事件的相关内容会发出大量请求,热点内容预缓存虽能缓解回程链路的压力,但内容交付的方式也影响了服务时延的好坏。摒弃传统的基于单播交付的缓存,提出一种基于组播方式的边缘云内容缓存部署方法,旨在最小化系统进行内容交付的总时延。通过第一阶段流行度的预测选取缓存文件的候选节点,并依次作为组播源节点构建组播路径,从而挑选出时延最小且仍有缓存空间的基站进行文件的预缓存。(3)本发明对某一候选节点和其目的节点集构成的组播组,采用改进的蚁群优化组播算法用于组播树的构建。利用蚁群算法探索和利用的特性,在构建的网络拓扑上寻路,并通过多次迭代快速收敛,最终找到此问题的最优解。(4)本发明虽然针对二层异构网络架构中的宏基站层面,但随着5g技术的不断进步,微基站间实现互连成为可能。倘若小区内的微基站间可相互通信,即可将本发明提出的多小区协作缓存部署应用至小区内的缓存部署,在微基站层面同步实现基于组播的协作缓存。附图说明图1是本发明公开的一种带控制器的宏基站-微基站二层异构网络架构图(由于本发明围绕宏基站的缓存展开,未在图中画出小区内的微基站);图2是本发明公开的边缘云中内容缓存部署方法的流程图;图3是本发明公开的组播树构建原理图。具体实施方式为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。实施例本实施例给出了内容缓存部署方法在移动边缘云中的使用,本发明的方案由用户需求预测和内容缓存部署两个部分组成,下面结合附图2中本发明公开的一种移动边缘云中内容缓存部署的流程图,具体说明本发明的方案,该方案的实现包括以下步骤:首先构建移动边缘云的系统模型,该系统模型是由宏基站和微基站组成的带控制器的二层异构网络架构,如图1所示,其中,宏基站简称mbs,微基站简称sbs。每个小区配备一个mbs,mbs间通过光纤连接实现通信,每个mbs都可通过回程链路与远端核心云相连。多个低功率的sbs被部署在mbs的覆盖区域内,用户可直接由其接入的sbs提供服务,也可以由mbs提供服务。mbs通过控制链路连接到控制器,由控制器统一收集和维护各个小区内用户发出的请求情况,掌握全局信息。每个宏基站配备一个移动边缘计算服务器,简称mec服务器,将移动边缘云中的热点内容预缓存在宏基站的mec服务器上,实现内容交付业务下沉到网络边缘,从而缓解回程链路和远端云的压力。在本发明的系统模型下,设定每个内容文件在该架构下只能部署在唯一的一个mec服务器上,即每个文件缓存无副本,若其他小区的用户请求该内容文件,则将缓存该文件的宏基站作为组播源,其它请求用户所在小区的mbs构成目的节点集,一定时间窗口内聚合成一个组播组,由一个宏基站组播流实现并行交付,各目的基站接收到该文件后再交付给本小区的用户。内容缓存部署方法聚焦多小区的内容缓存,以二层异构网络中的宏基站层为研究对象展开发明。考虑文件在各个小区宏基站的流行度情况和基于组播的文件传输时延,且传输时延仅考虑将文件从缓存的小区基站交付给用户所在小区基站的时延。此内容缓存部署方法虽着眼于多小区的协作缓存,但可拓展延伸至每个小区内的微基站层,同步实现小区内微基站间的缓存部署。控制器将运行时间划分为多个时隙,在每个时隙的开始,各mbs通过arima预测算法来预测各小区内用户对各个内容文件的需求集合,控制器通过各mbs的预测结果来获取用户的需求信息。在每个时隙的开始执行arima预测算法,将某内容文件在某小区宏基站下各历史时隙的请求数看做一个反应用户需求变化趋势的时间序列,导入此序列后对数据进行平稳化处理并确定参数d,并根据自相关和偏自相关图为模型定阶,自动筛选出合适的参数p、q,拟合arima(p,d,q)模型后即可预测出下一时隙该文件在指定宏基站下的请求数,将此结果与该文件的总请求数的比值作为预测的下一时隙该文件的流行度。单时隙内执行内容缓存部署操作时,控制器将根据arima预测算法的预测结果,将内容文件按总请求次数降序排序,依据基于组播和流行度感知的协作缓存(cooperativemulticast&popularity-awarecaching,cmpac)算法逐一部署内容文件,从空分配开始始终贪婪地将内容文件部署在使得系统时延最低的mec服务器上。针对每一文件的部署,首先选取流行度较高的前k个宏基站构成缓存文件fi的候选基站集wi,依次选择候选基站集中的一个节点sn∈wi作为缓存文件fi的源节点,计算出相应的文件传输时延其中,s={sn|n=1,2,...,n}表示多小区架构下宏基站的集合,f={fi|i=1,2,...,i}表示此架构下要缓存的文件集,n为移动边缘云的系统模型中宏基站的数量,i为缓存文件数量,mi表示请求文件fi的目的基站集,d(tin)为传输缓存在宏基站sn下的文件fi的组播树,sm∈(mi\sn)表示除源节点外的目的节点集中的某一目的节点sm,为从源节点到某一目的节点sm的传输时延。由于文件fi通过一棵源节点为sn的组播树并行交付给所有目的基站,则文件fi的传输时延等于组播树的时延d(tin),即文件传输时延为从源节点到各个目的节点时延中的最大值。逐个部署内容文件的过程中,将文件缓存在最小的节点上,如果随着部署的进行,某节点处没有足够的存储空间,则按求得的k个时延升序选择缓存的节点。根据系统模型构造对应的网络拓扑图作为网络模型,网络模型中每一个mbs节点侧部署带计算、存储、数据处理功能的mec服务器,每条链路都设定相应的数据传输速率,内容文件的传输时延即可依据该网络模型计算得出。将移动边缘云的系统模型用带权的网络拓扑图g=(v,e)进行模拟,其中,v代表通信节点集,即基站集s,e代表基站间的通信链路集,每条边e∈e都带有权值d(e),表示这条链路的传输时延,两个相邻基站sp,sq(p,q∈{1,2,...,n}且p≠q)间链路epq∈e上的传输时延即为文件大小与链路传输速率的比值,将文件fi从源节点传输到除源节点外的某一目的节点sm∈(mi\sn)的时延即为两节点间路径pathnm的各边权值之和,通过组播树并行交付文件的总时延即为从源节点到各个目的节点时延中的最大值。给定一个由文件缓存节点和请求此文件的目的节点集构成的组播组,利用改进的蚁群优化组播(improvedantcolonyoptimizationmulticast,iacom)算法构建时延最小组播树,从而确定文件缓存在宏基站下对应的内容交付时延,作为优化系统总时延的部署依据,组播树的构建原理如图3所示。设定最大迭代次数iternum,每次迭代从源节点发出c个数据包,各自构建组播树,并在每次迭代时不断更新当前最小时延组播树,每次将已经生成的树上所有节点的相邻节点作为下一步可选节点,根据蚁群算法的状态转移规则从中选择下一访问节点,加入相应链路向外延伸,组播树上每增加一条链路调整该链路的信息素浓度,直至所有目的节点都被加入到组播树中,则一次迭代结束,将当前时延最小组播树上的信息素进行全局更新,下一次迭代在此基础上进一步优化,多次迭代结束当迭代次数达到设定的最大迭代次数,迭代结束,算法收敛于一棵给定组播组的时延最小组播树。构建组播树的过程中,每次迭代,数据包传输给所有目的节点后构建的树中可能存在非目的节点的叶子节点。因此,每个数据包在完成一次交付后,需要对构建出的树进行剪枝操作,去掉与非目的节点的叶子节点相连的边,得到一棵覆盖源节点和所有目的节点的组播树。对于一个文件的k个候选缓存节点,采用上述方式构建出k棵时延最小组播树,选择时延最小且仍有缓存空间的节点缓存此文件。移动边缘云的系统模型完成单时隙内的内容文件逐一部署后,该时隙内即可进行基于组播的内容交付,即在一个组播持续窗口内,聚合对同一内容发出请求的基站集,由一个组播流统一服务,实现文件的高效并行交付。其中,移动边缘云的系统模型中宏基站的数量n为12个,缓存文件数量i为50个,其他参数通过表1中的值对系统进行配置:表1.ns2网络模拟参数配置表参数参数说明参数值n宏基站数量12i缓存文件数量50caps宏基站缓存容量2gbsizei内容文件大小100mb-400mbzzipf分布的参数1.2k缓存候选基站数量5t时隙长度5min\实验时长60min(一)arima预测算法预测用户需求通过预测算法与真实需求量值的拟合度、使用预测结果进行部署与其他方式部署的比较两个方面验证将预测算法与边缘云中内容缓存部署相结合的可行性。(1)拟合度本实施例采用的数据集包括12个小区基站服务器在连续24小时内统计的用户请求。首先进行数据的预处理,提取预测实验中用到的请求时间、接入基站的id、请求的文件id三个字段的参数,且筛选出需求量较大的前50个热门文件对应的数据记录,作为最终实验的数据集,使用前14个小时的数据作为训练样本进行建模,后10个小时的数据作为测试样本用于预测结果评估。(2)对内容缓存部署的影响采用两组对比试验:一组为使用真实需求数据作为需求集合,根据该集合决策部署方式来计算系统时延,该情况下的时延将是最接近真实情况的系统总时延,可作为三组实验结果的基准;另一组采用移动平均法计算时隙t的需求集合,依据此结果运行部署决策来计算传输文件的系统时延,计算规则为:取该时隙前若干时隙的平均请求值作为时隙t的请求值。实验共运行12个时隙。(二)内容缓存部署算法将系统时延作为评价指标,通过和其他缓存部署方法的对比、不同内容交付方式的对比以及在不同基站数量架构下的对比,评估本方案的性能。其他缓存部署算法为随机缓存(rc)和流行度感知缓存(pac),不同内容交付方式为单播交付和本发明采用的组播交付,不同基站数量为12个基站和6个基站。(1)缓存部署方法实验时长5分钟,移动边缘云系统模型运行12个时隙。将按照本发明提出的cmpac算法部署缓存带来的系统时延与rc、pac算法的系统时延对比,以验证本发明所提缓存部署方法的优异性。内容交付方式(2)在12个宏基站架构下,比较cmpac_组播、cmpac_单播、pac_组播、pac_单播在相应12个时隙内缓存部署后进行文件传输的系统时延,若无论采用何种缓存部署方法,组播交付的时延总是小于单播交付的时延,则说明组播交付为边缘云缓存部署方面降低时延的重要切入点。(3)基站数量将本实施例所提的cmpac算法分别在以下四个场景中实现:12个基站&组播、12个基站&单播;6个基站&组播、6个基站&单播,比较在相同的12个时隙内缓存部署后进行文件传输的系统时延。若增加基站数量能够使得组播交付的时延相较于单播减小地更多,说明基站数量越多组播传输的收益越大,相较于单播的优异性也愈加显著。(三)组播树构建算法将本实施例所提iacom算法与改进的蚁群优化算法(maco)进行对比,比较两个算法构建组播树所需的时间以及构建的组播树进行内容交付的时延大小。若相同迭代次数下,iacom算法更快收敛于传输文件的时延最小组播树,则说明本发明所提算法具备时间效率的优势。上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。当前第1页12
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1