基于流水线的云-边-端协作卸载方法和系统与流程

文档序号:22890315发布日期:2020-11-10 18:14阅读:185来源:国知局
基于流水线的云-边-端协作卸载方法和系统与流程

本发明涉及移动边缘计算技术领域,具体涉及一种基于流水线的云-边-端协作卸载方法和系统。



背景技术:

随着移动设备的智能化,对虚拟现实,自然语言处理,超高清视频和在线游戏等新型高计算能力应用的需求不断增长,因此为移动设备提供高计算能力已成为未来无线通信系统的另一个重要目标。达到这个目标的一个主要途径是将计算密集的任务卸载到附近资源更加丰富的服务器上,这种方法称为计算卸载。

在现有方法中,主要通过边缘节点的mec服务器(mobileedgecomputing移动边缘计算)、云中心与移动设备的协作,完整任务卸载,为了在终端、边缘和云共同处理任务,现有技术中,在进行任务卸载时,主要考虑移动终端本身的计算能力和功耗限制,边缘节点的计算能力和功耗限制等,实现最小化所有移动设备的总等待时延问题为目标。

然而,本发明的申请人发现,现有的计算卸载方法不能满足时延敏感任务对时效性的要求。



技术实现要素:

(一)解决的技术问题

针对现有技术的不足,本发明提供了一种基于流水线的云-边-端协作卸载方法和系统,解决了现有的计算卸载方法不能满足时延敏感任务对时效性的要求的技术问题。

(二)技术方案

为实现以上目的,本发明通过以下技术方案予以实现:

本发明提供了一种基于流水线的云-边-端协作卸载方法,通过流水线卸载策略对任务进行分配,流水线卸载策略包括:对于任何任务,移动设备首先要判断本地是否有足够的可用资源,当移动设备有足够的能力处理任务时,移动设备独自处理整个任务;否则,移动设备根据自身的计算能力处理部分任务,将剩余的任务卸载到最近的边缘节点;边缘节点上的mec根据接收到的任务量以及自身的计算资源来决定处理多少任务;如果mec无法处理所有卸载来的任务,mec处理与其计算能力相匹配的任务,将剩余的任务卸载给拥有充足计算资源的云中心,所述方法包括以下步骤:

s1、获取任务数据和计算资源数据,基于任务数据和计算资源数据设定变量参数,其中变量参数包括所有移动设备任务i,移动设备n的当前任务量in、移动设备n的计算能力fn;

s2、依据任务执行量的流水线卸载策略将移动设备n的当前任务量in对应分配给移动设备n、边缘节点及云中心,根据所述变量参数及其初始化值,构建移动设备n、边缘节点及云中心各自与对应分配的任务执行量分别关联的时延模型;

s3、根据所述时延模型,得到所有移动设备任务i被全部卸载执行时的最大时延模型;

s4、定义出联合优化任务的流水线卸载策略、计算资源和通信资源的分配问题,以最小化所有移动设备的总等待时延问题为目标,根据所述最大时延模型,将所述分配问题转换为目标函数及对应约束条件;

s5、基于目标函数、约束条件、每个移动设备的当前任务量、任务需要的计算资源、移动设备n的计算能力fn,获取最优的任务流水线卸载策略、计算资源和通信资源分配策略。

优选的,所述变量参数还包括:任务需要的计算资源ψn和任务完成的截止时间边缘节点的数量s、移动设备的数量n、边缘节点s计算资源上限和云中心计算资源上限

优选的,所述计算资源包括边缘节点分配给移动设备n的计算能力fn,s和云中心分配给边缘节点s的计算资源

优选的,所述移动设备n、边缘节点及云中心各自与对应分配的任务执行量分别关联的时延模型,包括:

移动设备n的时延模型为:

式中:

表示移动设备n执行卸载任务的时延,

表示移动设备n本地计算需要的计算资源,

fn表示移动设备n的计算能力,

任务从移动设备n卸载到边缘节点s的传输时延、计算时延为:

边缘节点的延时模型为:

式中:

表示任务从移动设备n卸载到边缘节点s的传输时延,

表示任务从移动设备n卸载到边缘节点s的计算时延,

tn,s表示边缘节点s执行卸载任务的时延,

表示边缘节点计算的数据大小,

rn,s表示移动设备n和边缘节点s之间的传输速率,

表示边缘节点计算需要的计算资源,

fn,s表示边缘节点s分配给移动设备n的计算能力,

云中心的延时模型为:

式中:

表示任务从边缘节点s卸载到云中心c的的传输时延,

表示任务从边缘节点s卸载到云中心c的的计算时延,

表示云中心c执行卸载任务的时延,

表示云中心计算的数据大小,

表示边缘节点s和云中心c之间的传输速率,

表示云中心计算需要的计算资源,

表示对于任务n,云中心c分配给边缘节点s的计算能力,

优选的,所述根据所述时延模型,得到所有移动设备任务i被全部卸载执行时的最大时延模型,包括:

用集合表示流水线卸载策略的集合,其中xnin(xn∈[0,1])表示任务在本地处理的部分,(1-xn)xn,sin表示剩下的任务(1-xn)in,边缘节点s处理其中的xn,s∈[0,1],剩余的(1-xn)(1-xn,s)in将被卸载到云中心上处理,任务能否在截止日期内完成,直接受到流水线卸载策略的影响;任务在本地计算、边缘计算以及云中心计算的大小可以分别建模为:

移动设备本地计算、边缘计算以及云中心计算所需的计算资源可以分别重写为:

任务的处理时延重新建模,具体如下:

移动设备本地计算:

对于本地计算方案,在移动设备n上处理,相对应的计算时延重写为:

边缘计算:

如果移动设备本地无法计算所有任务,移动设备n需要将剩下的任务(1-xn)in卸载到最近的边缘节点上;由于边缘节点s上部署的mec服务器的计算资源有限,所以边缘节点s处理剩下任务中的xn,s,通过无线信道将大小为(1-xn)in的任务从移动设备n卸载到边缘节点s的传输时延可以重新定义为:

边缘节点s处理剩下任务中的xn,s的计算时延可以重新定义为:

云计算:

当边缘节点不能计算所有任务时,边缘节点将卸载剩余的所有任务(1-xn)(1-xn,s)in到云中心c,通过无线前程信道将大小为(1-xn)(1-xn,s)in的任务从ens卸载到云中心c的传输时延可以重写为:

云中心c处理剩余任务的计算时延可以改写成:

此时,移动设备n完成任务的总时延可以表示为:

因此,即最大时延模型如下:

优选的,所述通信资源包括传输速率和传输功率。

优选的,所述目标函数及对应约束条件包括:

其中,t为所有移动设备任务i的总处理时延,约束c1表示任务需要在截止日期内完成;约束c2表示流水线卸载策略的取值范围;c3确保完成这项任务所需要的电量不能超过移动设备现有电量的上限;c4表示计算资源分配不能超过边缘节点及云中心计算资源的上限值;c5表示移动设备和边缘节点的传输功率不能超过上界值;c6和c7分别表示移动设备到边缘节点以及边缘节点到云中心的传输速率不能超过理论上界值。

优选的,所述基于目标函数、约束条件、每个移动设备的当前任务量、任务需要的计算资源、移动设备n的计算能力fn,获取最优的任务流水线卸载策略、计算资源和通信资源分配策略,包括:

目标函数及约束条件转化为凸优化问题,得到优化后的目标函数和约束条件;

以每一个移动设备的当前任务量,任务需要的计算资源以及移动设备、边缘节点和云中心三者各自的计算能力为输入,输入到优化后的目标函数和约束条件中,得到最优的任务流水线卸载策略、计算资源、通信资源分配策略。

本发明还提供了一种基于流水线的云-边-端协作卸载系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述所述方法的步骤。

(三)有益效果

本发明提供了一种基于流水线的云-边-端协作卸载方法和系统。与现有技术相比,具备以下有益效果:

本发明通过流水线卸载策略对任务进行分配,流水线卸载策略包括:对于任何任务,移动设备首先要判断本地是否有足够的可用资源,当移动设备有足够的能力处理任务时,移动设备独自处理整个任务;否则,移动设备根据自身的计算能力处理部分任务,将剩余的任务卸载到最近的边缘节点;边缘节点上的mec根据接收到的任务量以及自身的计算资源来决定处理多少任务;如果mec无法处理所有卸载来的任务,mec处理与其计算能力相匹配的任务,将剩余的任务卸载给拥有充足计算资源的云中心。本发明通过流水线卸载策略对任务进行分配,能有效的降低时延敏感任务在移动设备与边缘节点、边缘节点与云中心之间的传输的通信资源,从而减少时延敏感任务在移动设备、边缘节点与云中心之间的传输时间,达到减少时延的目的。同时本发明基于流水线的云-边-端协作卸载架构,联合考虑了流水线卸载策略、计算资源和通信资源,提出了最小化所有移动设备的总等待时延问题,在本发明中,任务可以同时在移动设备本地,边缘节点的mec服务器和云端进行计算,减少系统时延,满足时延敏感任务对时效性的要求。

附图说明

为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明实施例一种基于流水线的云-边-端协作卸载方法的框图;

图2为包含一个cc,s个en和n个md的云-边-端协作框架图;

图3为任务n在移动设备本地计算、边缘计算以及云中心计算的时延策略示意图;

图4.1为时延与md数量之间的关系折线图;

图4.2为时延与en数量的关系折线图;

图4.3为时延与任务负载之间的关系折线图;

图4.4为时延与最大md发射功率之间的关系折线图;

图4.5为时延与最大en发射功率之间的关系折线图。

具体实施方式

为使本发明实施例的目的、技术方案和优点更加清楚,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

本申请实施例通过提供一种基于流水线的云-边-端协作卸载方法,解决了现有计算卸载方法不能满足时延敏感任务对时效性的要求的技术问题,实现更小的系统延迟。

本申请实施例中的技术方案为解决上述技术问题,总体思路如下:

边缘节点与云中心相结合的协同计算模式是解决移动设备计算能力有限,无法有效满足用户需求问题的有效方法。该方法被称为计算卸载,现有的计算卸载在进行任务卸载时,主要考虑移动终端本身的计算能力和功耗限制,边缘节点的计算能力和功耗限制等,实现最小化所有移动设备的总等待时延问题为目标。但是,在实际运用中,这种计算卸载方法不能满足时延敏感任务对时效性的要求。因此,本发明实施例提出了一种基于流水线的云-边-端协作卸载方法来解决上述问题。

为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。

本发明实施例提供一种基于流水线的云-边-端协作卸载方法,通过通过流水线卸载策略对任务进行分配,流水线卸载策略包括:对于任何任务,移动设备首先要判断本地是否有足够的可用资源,当移动设备有足够的能力处理任务时,移动设备将独自处理整个任务;否则,移动设备将根据自身的计算能力处理部分任务,同时通过接入链路将剩余的任务卸载到最近的边缘节点;在收到移动设备的卸载要求后,边缘节点上的mec将根据接收到的任务量以及自己的计算资源来决定处理多少任务;如果mec无法处理所有卸载来的任务,mec将计算与其计算能力相匹配的任务,边缘节点通过前程链路将剩余的任务卸载给拥有充足计算资源的云中心。如图1所示,该方法包括包括步骤s1~s5。

s1、获取任务数据和计算资源数据,基于任务数据和计算资源数据设定变量参数,其中变量参数包括所有移动设备任务i,移动设备n的当前任务量in、移动设备n的计算能力fn;

s2、依据任务执行量的协作分配原则将移动设备n的当前任务量in对应分配给移动设备n、边缘节点及云中心,根据所述变量参数及其初始化值,构建移动设备n、边缘节点及云中心各自与对应分配的任务执行量分别关联的时延模型;

s3、根据所述时延模型,得到所有移动设备任务i被全部卸载执行时的最大时延模型;

s4、定义出联合优化任务流水线卸载策略、计算资源和通信资源的分配问题,以最小化所有移动设备的总等待时延问题为目标,根据所述最大时延模型,将所述分配问题转换为目标函数及对应约束条件;

s5、基于目标函数、约束条件、每个移动设备的当前任务量、任务需要的计算资源、移动设备n的计算能力fn,获取最优的任务流水线卸载策略、计算资源和通信资源的分配策略。

本发明实施例通过流水线卸载策略对任务进行分配,能有效的降低时延敏感任务在移动设备与边缘节点、边缘节点与云中心之间的传输的通信资源,从而减少时延敏感任务在移动设备、边缘节点与云中心之间的传输时间,达到减少时延的目的。同时本发明实施例基于流水线的云-边-端协作卸载架构,联合考虑了流水线卸载策略、计算资源和通信资源,提出了最小化所有移动设备的总等待时延问题,在本发明实施例中,任务可以同时在移动设备本地,边缘节点的mec服务器和云端进行计算,减少系统时延,满足时延敏感任务对时效性的要求。

在一实施例中,s1、获取任务数据和计算资源数据,基于任务数据和计算资源数据设定变量参数,包括:

通过网络爬虫技术或人工录入的方式获取任务数据和计算资源数据。任务数据主要包括:任务的数据大小、任务需要的计算资源和任务完成的截止时间等。计算资源数据包括:边缘节点的数量、移动设备的数量、移动设备的计算能力、边缘节点的计算能力、云中心的计算能力,边缘节点分配给移动设备的计算资源和云中心分配给边缘节点的计算资源等。

变量参数包括:移动设备任务i,移动设备n的当前任务量in、任务需要的计算资源ψn和任务完成的截止时间边缘节点的数量s、移动设备的数量n、移动设备的计算能力fn、边缘节点s计算资源上限和云中心计算资源上限以及计算资源中边缘节点分配给移动设备n的计算能力fn,s和云中心分配给边缘节点s的计算资源

在一实施例中,s2、依据任务执行量的协作分配原则和所述变量参数,构建移动设备n、边缘节点及云中心各自与对应分配的任务执行量分别关联的时延模型。具体实施过程如下:

将移动边缘计算网络中的计算卸载问题建模为基于流水线的云-边-端协作卸载问题,依据任务执行量的协作分配原则将移动设备n的当前任务量in对应分配给移动设备n、边缘节点及云中心,并根据变量参数及其初始化值,构建出移动设备n、边缘节点及云中心各自与对应分配的任务执行量分别关联的时延模型。

任务执行量的协作分配原则是指:当前任务量in=为移动设备n的任务执行量+边缘节点的任务执行量+云中心的任务执行量。

在本发明实施例中,将移动边缘计算网络中的计算卸载问题建模为基于流水线的云-边-端协作卸载问题。通过利用云、边缘和终端之间计算能力的差异,将移动设备(md)产生的任务通过无线前传和接入链路卸载到云中心(cc)和边缘节点(en)上进行协作处理。具体来说,如果md将任务卸载到en上的移动边缘计算(mec)服务器,但mec服务器的计算资源已用尽,则应进一步划分卸载的任务,en会将剩余的任务卸载到具有足够计算资源的cc上。

基于上述,构建云-边-端网络框架,如图2所示,考虑包含一个cc,s个en和n个md的云-边-端协作网络框架。用c表示cc,用集合来分别表示en的集合和md的集合。假设每个md已经与一个en上的mec服务器相关联,其中每个md通过无线访问链路连接相应的en,en将数据通过不同的前传链路卸载给cc。在实际网络中,cc服务器的计算能力是足够的。而与cc相比,en上的mec在数据处理和通信方面的能力是有限的。假设每个md都有一个时延敏感的任务要处理。因此,采用参数表示的任务,其中in为任务n的数据大小,ψn为处理任务n所需要的计算资源总量(即,cpu圈数),是任务完成的截止日期。

一般来说,cc和en的地理位置是固定的,可以从附近的供电设备处充电,从而实现不间断供电。

则移动设备n的时延模型为:

其中:

表示移动设备n执行卸载任务的时延,

表示移动设备n本地计算需要的计算资源,

fn表示mdn的计算能力,

任务从mdn卸载到ens的传输时延、计算时延为:

则边缘节点的延时模型为:

其中:

表示任务从mdn卸载到ens的传输时延,

表示任务从mdn卸载到ens的计算时延,

tn,s表示ens执行卸载任务的时延,

表示en计算的数据大小,

rn,s表示mdn和ens之间的传输速率,

表示en计算需要的计算资源,

fn,s表示ens分配给mdn的计算能力,

任务从ens卸载到ccc的传输时延和计算时延为:

则云中心的延时模型为:

其中:

表示任务从ens卸载到ccc的的传输时延,

表示任务从ens卸载到ccc的的计算时延,

表示ccc执行卸载任务的时延,

表示cc计算的数据大小,

表示ens和ccc之间的传输速率,

表示cc计算需要的计算资源,

表示对于任务n,ccc分配给ens的计算能力,

在本发明实施例中,依据任务执行量的协作分配原则和变量参数,还可构建移动设备n计算所需能耗、任务从md卸载到en的传输能耗,表示为:

其中:

表示移动设备n计算所需能耗,

κ(fn)2是cpu转一圈的能耗,κ表示有效的切换电容,其值大小由芯片结构决定;

fn表示mdn的计算能力,

表示移动设备n本地计算需要的计算资源,

表示任务从md卸载到en的传输能耗;

表示en计算需要的计算资源,

表示任务从mdn卸载到ens的传输时延,

pn表示mdn的发射功率。

上述公式中的ens和ccc之间的传输速率mdn和ens之间的传输速率rn,s的计算过程如下:

在云-边-端网络框架中,md和en采用ofdma(orthogonalfrequencydivisionmultipleaccess,正交频分多址)方式进行通信。具体来说,对于接入链路,子载波在md之间进行多路复用,其中每个en使用独立的正交子载波。对于前程链路,有多个子载波,一个子载波可以同时分配给多个en,每个en最多允许使用一个子载波。本发明实施例考虑一个特殊情况,即所有en共享同一个子载波。

md与en之间的无线接入信道和en到cc的前程信道被建模为独立同分布的瑞利信道(i.i.d)。mdn与ens之间的接入链路的信道增益可以表示为:

其中:g表示路径损耗常数;

βn,s表示服从指数分布的快衰落增益;

γn,s;dn,s表示服从对数正态分布的慢衰落增益;α表示mdn到ens的距离以及路径损耗指数。

相似地,表示ens和ccc之间的信道增益。

mdn在ens处的sinr(信噪比)以及ens在ccc处的sinr,分别表示为

其中:pn和pn,s分别表示mdn和ens的发射功率;σ2是噪音功率。可以看出,式(2.2)和(2.3)中分母的第一项分别表示接入链路中的小区间干扰和前端链路中的en间干扰。因此,mdn和ens之间的传输速率、ens和cc之间的传输速率可分别表示为:

rn,s=blog2(1+γn,s)(2.13)

其中:b表示带宽。

在一实施例中,s3、根据时延模型,得到所有移动设备任务i被全部卸载执行时的最大时延模型。具体实施过程如下:

对于任何任务,md首先要判断本地是否有足够的可用资源。当md有足够的能力处理任务时,它将独自处理整个任务。否则,md将根据自身的计算能力处理部分任务,同时通过接入链路将剩余的任务卸载到最近的en。在收到md的卸载要求后,en上的mec将根据接收到的任务量以及自己的计算资源来决定处理多少任务。如果mec无法处理所有卸载来的任务,mec将计算与其计算能力相匹配的任务。然后,en通过前程链路将剩余的任务卸载给拥有充足计算资源的cc。

用集合表示流水线卸载策略的集合,其中xnin(xn∈[0,1])表示任务在本地处理的部分,(1-xn)xn,sin表示剩下的任务(1-xn)in,ens处理其中的xn,s∈[0,1],剩余的(1-xn)(1-xn,s)in将被卸载到cc上处理。任务能否在截止日期内完成,直接受到流水线卸载策略的影响,其中任务n在移动设备本地计算、边缘计算以及云中心计算的时延如图3所示。

根据上述设计的流水线卸载策略,任务在本地计算、边缘计算以及云中心计算的大小可以分别建模为:

移动设备本地计算、边缘计算以及云中心计算所需的计算资源可以分别重写为:

此外,任务的能耗和处理时延还需要重新建模,具体如下。

(1)移动设备本地计算

对于本地计算方案,部分任务,即xnin,在mdn上处理,相对应的计算时延和计算能耗分别重写为:

(2)边缘计算

如果移动设备本地无法计算所有任务,mdn需要将剩下的任务(1-xn)in卸载到最近的en上。由于ens上部署的mec服务器的计算资源有限,所以ens处理剩下任务中的xn,s。通过无线信道将大小为(1-xn)in的任务从mdn卸载到ens的传输时延可以重新定义为:

另外,ens处理剩下任务中的xn,s的计算时延可以重新定义为:

任务从mdn卸载到ens的传输能耗可定义为:

(3)云计算

当en不能计算所有任务时,en将卸载剩余的所有任务(1-xn)(1-xn,s)in到ccc。通过无线前程信道将大小为(1-xn)(1-xn,s)in的任务从ens卸载到ccc的传输时延可以重写为:

ccc处理剩余任务的计算时延可以改写成:

此时,mdn完成任务的总时延可以表示为:

因此,所有md的总处理时延可建模(即最大时延模型)如下:

在一实施例中,s4、定义出联合优化任务流水线卸载策略、计算资源、传输速率和传输功率的分配问题,以最小化所有移动设备的总等待时延问题为目标,根据所述最大时延模型,将所述分配问题转换为目标函数及对应约束条件。具体包括:

在同时满足所有md任务的截止日期和能量约束的情况下,通过联合设计流水线卸载策略、计算资源、传输速率分配和传输功率分配,来达到时延最小化的目的。具体地,可以将问题建模为:

其中,t为所有移动设备任务i的总处理时延,约束c1表示任务需要在截止日期内完成;约束c2表示流水线卸载策略的取值范围;c3确保完成这项任务所需要的电量不能超过移动设备现有电量的上限;c4表示计算资源分配不能超过边缘节点及云中心计算资源的上限值;c5表示移动设备和边缘节点的传输功率不能超过上界值;c6和c7分别表示移动设备到边缘节点以及边缘节点到云中心的传输速率不能超过理论上界值。

在一实施例中,s5、基于目标函数、约束条件、每个移动设备的当前任务量、任务需要的计算资源、移动设备的计算能力fn,获取最优的任务流水线卸载策略、计算资源、通信资源分配策略。通信资源包括传输速率和传输功率。

问题中的优化变量包含流水线卸载策略(xn,xn,s),计算资源传输速率以及传输功率(pn,pn,s),这些变量之间是耦合的,使得问题为非凸问题不易于解决。因此,需要将问题转化为易于处理的形式,以便有效地解决,即将目标函数及约束条件转化为凸优化问题。

为了解决非凸问题首先引入一组松弛变量集合作为各种延迟变量的上界并用sca(连续凸近似successiveconvexapproximation)发法来放缩它。因此,表示总延时的式(3.14)、(3.15)可分别改写为:

an=max{an,1,an,2+an,3,an,2+an,4+an,5}(5.1)

其中式(3.7)的上界可以定义为an,1,如下所示:

同理,对于式(3.9),(3.10),(3.12),(3.13)的上界可分别定义为如下形式:

然后,优化问题可以等价地变换成:

由于目标函数是非凸的,使得问题仍然难以解决,利用sca法,可以对非凸优化问题进一步转化。

为了处理问题需要将非凸不等式(5.4)-(5.7)转化为凸的。为此,首先引入松弛变量θn将不平等(5.4)拆分为两个可分离的不等式,如下所示:

接着,生成一个迭代序列θn,0并利用一阶泰勒公式对不等式(5.9)的左边展开,展开后如下所示:

不等式(5.10)的右边可以转化为一个二阶锥约束,定义如下:

经过上述转化,不等式(5.4)已经成为凸约束。然后,可以用类似的方法来处理(5.5)-(5.7),如下所示:

(5.5)式转化为

(5.6)式转化为

(5.7)式转化为

其中:πn,λn和τn和λn,0是松弛变量,πn,0,λn,0和τn,0是迭代序列。经过上述一系列的转换,目标函数变为凸函数,问题可以重新定义为:

然而,优化问题仍然是非凸的,因为约束c6和c7是非凸的。接下来,通过数学转化,将非凸约束条件c6和c7转化为凸形式。首先,引入松弛变量βn和bn。然后,约束c6可以重新转化为如下形式:

rn,s≤blog2(1+βn)(5.19)

式中βn≤pngn,s/bn并用一阶泰勒展开式来近似:

式中pn,0和bn,0分别为pn和bn的迭代序列。同样地,可以将非凸约束c6转化为凸约束形式:

式中μn和cn是松弛变量,同样用一阶泰勒展开式来近似:

不等式(5.24)中和cn,0分别为pn,s和cn的迭代序列。因此,经过上述一系列转化问题可以重新建模为如下形式:

以每一个md的当前任务量,任务需要的计算资源以及md、en和cc三者各自的计算能力为输入,输入到公式(5.25)中,求满足所有约束条件下问题最优解,即,输出最优的任务流水线卸载策略、计算资源、传输速率和传输功率分配策略。

为了验证本发明实施例的有效性,下面进行实验论证,具体包括:

一、为了探索探索en和cc协作进行计算卸载的优势,进一步研究了一些特殊的案例:1)所有的任务都在本地处理,2)所有任务都被卸载到en处理,3)所有任务都在本地和en上联合协作处理,具体如下。

案例1:所有的任务都在移动设备本地处理,即,xn=1,xs=0。

在此案例中,处理任务n的总延迟可以表示为tn=ψn/fn。令可以得到当所有任务都在本地处理时,mdn只能处理最大计算资源为的任务。如果表示本地计算失败,任务需要卸载。因此,案例1只适用于处理时延容忍任务。

案例2:所有任务都被卸载到en处理,即xn=0,xs=1。

在此案例中,处理任务n的总延迟可以表示为tn=in/rn,s+ψn/fn,s,令rn,s=rn,s,mdn剩余的电量都用来卸载数据,因此可以将式(2.9)转换成即,为此,该验证过程提出了引理6.1,得到案例2最优的功率分配策略。

引理6.1:如果是等式的最优解,那么同样是下列问题在满足rn,s=rn,s,的最优解:

证明:首先,通过计算tn(pn)的一阶导数,可以得到tn′(pn)<0。很明显,tn(pn)是随着pn的增加而减小。接着令en(pn)=pnin/rn,s,计算en(pn)的一阶导数可以得到e′n(pn)>0。当pn取最大值时tn(pn)最小。因此可以得到pn如下的闭式解:

其中:a=in/b,通过解式(5.27)可以得到问题的解。

通过比较案例1,可以得到两种案例在总延迟方面的相关等式

其中

案例3:所有任务都在本地和en上联合协作处理,即,xn+xn,s=1。

在本案例中,对问题重新建模

其中问题是一个凸优化问题可以用凸优化工具求解。通过上述案例可知,任务在本地和en协作处理相比与只在本地或只在en处理,可以提供更强大的计算资源,有效地降低任务处理的延迟。

二、通过多组仿真来对本发明实施例提出方法的性能进行评估。仿真中考虑一个网络拓扑为1000米×1000米的正方形区域,覆盖一个cc,3个en和30个md。cc的位置固定在网络中心,而en和md都是随机分布在区域内。信道模型采用3gpp制定的信道模型。需要说明的是,该验证过程中的大多数结果都是对数据进行大量的蒙特卡罗训练得到的平均值。相关仿真参数如表5.1所示。

表5.1仿真参数

在仿真中,将en和cc协作卸载框架与如下三种卸载方案的性能进行了比较:

移动设备本地(local):没有卸载,每个任务都是在本地处理。

随机(random):每个任务随机处理,即,移动设备本地、en或cc计算。

最大传输速率下随机(randomwithmaximumdeliveryrate,random-maximum):每个任务随机处理,即,移动设备本地、en或cc计算,但传输速率取理论最大值,即,

移动设备本地和边缘协作(localandedge):每个任务同时在本地和en上协作处理。

最大传输速率下本地和边缘协作(localandedgewithmaximumdeliveryrate,localandedge-maximum):每个任务同时在移动设备本地和en上协作处理,但传输速率取理论最大值。

联合(joint):本发明实施例提出的基于流水线的云-边-端协作卸载方法。

最大传输速率下联合(jointwithmaximumdeliveryrate,joint-maximum):使用本发明实施例提出的基于流水线的云-边-端协作卸载框架进行任务处理,但传输速率取理论最大值。

图4.1给出了时延与md数量的关系。当计算任务较大,移动设备本地和en无法在截止日期内处理所有任务时,需要将任务卸载给cc,增加了en到cc的传输时延,导致时延随着md的数量增加而增加。此外,对于不考虑cc卸载的方案将增加任务的排队等待时间,导致额外的时延开销。

图4.2给出了时延与en数量的关系。从图中可以看到,随着en数量的增加,时延会减少。因为随着en数量的增加,可用的mec服务器也会增加,导致系统总计算资源增加,md有更多的mec可供选择。但是,当en数量增加到一定程度时,计算资源趋于饱和,这一优势会变小。

在图4.1和4.2中可以得出本发明实施例提出的方案优于其他的卸载方案。因为该方案是联合en和cc的协作卸载方案,md可以同时在移动设备本地,en和cc上处理任务。给任务分配合理的卸载对象,可以极大减少任务排队等候时延。另外,将本发明实施例提出的传输速率分配方案与传输速率取理论最大值比较,得到了两者在时延上存在一定的差距,但差距很小,这表明本发明实施例提出的方法能够很好的逼近理论上界。

图4.3给出了时延与任务负载之间的关系。从图中可以观察到,时延将随着任务负载的增加而增加。显然,随着任务负载的增加而en的数量保持不变,mec服务器上的计算压力将增加,这将导致额外的时延。当任务负载不太多时,mec服务器上任务的处理时延相对较小。然而,随着计算资源需求的增加,对平衡分配mec服务器上任务的需求将变得更加迫切。因此,本发明实施例所提出的基于流水线的云-边-端协作卸载方法将继续突出其优越性。

图4.4和图4.5分别给出了时延与最大md发射功率和最大en发射功率间的关系。观察得到,随着md和en的最大发射功率不断增大,时延越来越小。根据上述分析的特殊案例可以得出,发射功率的上界变大,md可用的功率也在增大。因此,实际的传输速率变得更快,这导致了更小的时延。然而,当发射功率增大时,使得小区间干扰更加严重,影响了系统的性能。同理,图4.5也是同样的原因。

本发明实施例还提供一种基于流水线的云-边-端协作卸载系统,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,处理器执行所述计算机程序时实现上述方法的步骤。

可理解的是,本发明实施例提供的上述基于流水线的云-边-端协作卸载系统与上述基于流水线的云-边-端协作卸载方法方法相对应,其有关内容的解释、举例、验证等部分可以参考基于流水线的云-边-端协作卸载方法中的相应内容,此处不再赘述。

综上所述,与现有技术相比,具备以下有益效果:

1、本发明实施例通过流水线卸载策略对任务进行分配,能有效的降低时延敏感任务在移动设备与边缘节点、边缘节点与云中心之间的传输的通信资源,从而减少时延敏感任务在移动设备、边缘节点与云中心之间的传输时间,达到减少时延的目的,满足时延敏感任务对时效性的要求。

2、本发明实施例基于流水线的云-边-端协作卸载架构,联合考虑了流水线卸载策略、传输速率和功率分配,提出了最小化所有移动设备的总等待时延问题,在本发明实施例中,任务可以同时在移动设备本地,边缘节点的mec服务器和云端进行计算减少系统时延。

3、现有的计算卸载方法中,传输速率直接取的香农极限,而在实际场景中传输速率能达到的理论最大值,从而造成网络拥塞,而在本发明实施例中,根据实际场景分配一个合理的传输速率,从而有效缓解网络拥塞。

4、本发明实施例通过使用经典的连续凸近似法和算术几何平均不等式,将非凸优化问题转化为凸问题,得出了最优的任务分配和资源分配原则,从而减少系统时延。

需要说明的是,通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。

在本发明实施例中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1