基于位置预测的智慧公路任务协同处理方法、系统

文档序号:31623571发布日期:2022-09-23 23:58阅读:51来源:国知局
基于位置预测的智慧公路任务协同处理方法、系统

1.本发明涉及智慧公路技术领域,尤其涉及一种基于位置预测的智慧公路任务协同处理方法、系统。


背景技术:

2.智慧公路是一个借助新一代信息通信技术,以人车路环境的全面精准感知智能决策为核心,通过人车路互联与协作,构建可实现协同管控与创新服务的公路系统。智慧公路依托通信系统、监控系统等基础设施,并对车辆实施自动安全检测、发布相关的公路环境信息以及实施实时自动操作,为实现智能化的公路运输提供更为安全、经济、舒适的基础服务。智慧公路使得新兴的车辆服务成为可能,例如道路状况提醒,包括桥梁、隧道、急弯等事故易发路段的提醒;道路智慧监测,利用道路侧的感知设备收集天气、环境、交通路况等信息,为司机提供最新的道路信息;车辆辅助驾驶,包括碰撞预警、紧急制动预警、变道辅助和车辆失控预警等基本应用。显而易见,上述服务的实现将建立在海量数据的快速精准处理和计算基础之上,需要智慧公路信息通信系统能够满足相应的低时延、高可靠等业务需求。
3.移动边缘计算(mobile edge computing,mec)以其边缘处理和支持移动性等特点与智慧公路场景高度契合。并且随着5g技术的发展,作为能够充分发挥5g高带宽、低时延、大连接等网络优势的在边缘侧提供算力的关键技术,mec已成为智慧公路的首选。mec技术极大的减缓了车辆自身的计算压力,降低了业务处理时延,提高了整体效能。
4.然而目前,对于车辆任务的协同,是基于向路侧单元(roadsideunit,又称rsu)、mec和云端服务器分配任务而进行的纵向协同,也未能考虑车辆高速移动带来的传输时延导致的不利影响。


技术实现要素:

5.针对现有技术存在的问题,本发明提供一种基于位置预测的智慧公路任务协同处理方法、系统。
6.本发明提供的一种基于位置预测的智慧公路任务协同处理方法,所述方法包括:
7.获取车辆的状态信息和任务信息;
8.基于所述状态信息,预测出车辆位置;
9.基于强化学习模型,以最小化所述任务的整体时延为目标,将所述任务协同分配至多个移动边缘计算服务器,其中,所述移动边缘计算服务器临近预测出的所述车辆位置。
10.根据本发明提供的一种基于位置预测的智慧公路任务协同处理方法,所述基于强化学习模型,以最小化所述任务的整体时延为目标,包括:
11.获取时隙内多个任务;
12.以所述时隙内多个任务的平均整体时延的最小化,作为所述强化学习模型的目标。
13.根据本发明提供的一种基于位置预测的智慧公路任务协同处理方法,所述以所述
时隙内多个任务的平均整体时延的最小化,作为所述强化学习模型的目标,包括:
14.对于所述时隙内多个任务分配的所有移动边缘计算服务器构成的计算网络;
15.以所述时隙内多个任务的平均整体时延的最小化,作为所述强化学习模型的目标,同时,以所述计算网络的负载均衡作为目标。
16.根据本发明提供的一种基于位置预测的智慧公路任务协同处理方法,所述将所述任务协同分配至多个移动边缘计算服务器,包括:
17.在将所述任务进行协同分配时,应满足,车辆行驶至当前移动边缘计算服务器范围的时延大于等于任务的整体时延,且小于任务所能接受的最大时延。
18.根据本发明提供的一种基于位置预测的智慧公路任务协同处理方法,所述基于所述状态信息,预测出车辆位置,包括:
19.通过gru神经网络模型,基于车辆的历史位置、时间和速度,对车辆位置做出预测。
20.根据本发明提供的一种基于位置预测的智慧公路任务协同处理方法,所述强化学习模型为ddqn模型。
21.本发明还提供的一种基于位置预测的智慧公路任务协同处理系统,所述系统包括:
22.获取模块,所述获取模块获取车辆的状态信息和任务信息;
23.预测模块,所述预测模块基于所述状态信息,预测出车辆位置;
24.协同模块,所述协同模块基于强化学习模型,以最小化所述任务的整体时延为目标,将所述任务协同分配至多个移动边缘计算服务器,其中,所述移动边缘计算服务器临近预测出的所述车辆位置。
25.本发明还提供的一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一项所述基于位置预测的智慧公路任务协同处理方法的步骤。
26.本发明还提供的一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述基于位置预测的智慧公路任务协同处理方法的步骤。
27.本发明还提供的一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述基于位置预测的智慧公路任务协同处理方法的步骤。
28.本发明提供的基于位置预测的智慧公路任务协同处理方法、系统,通过预测车辆轨迹,将车辆任务在多个mecs上进行横向协同分配,配合车辆运动节省传输时延,使得整体车辆任务的分配是最为优化的。
附图说明
29.为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
30.图1为本实施例采用的gru结构图;
31.图2为本实施例采用gru神经网络模型作为轨迹预测模型的示意图;
32.图3为对比了本实施例主要关注的系统时延指标示意图;
33.图4为对比了随着协同mecs数量增加不同算法计算时延的变化示意图;
34.图5为本发明提供的一种基于位置预测的智慧公路任务协同处理方法流程示意图;
35.图6为本发明提供的一种基于位置预测的智慧公路任务协同处理系统结构示意图;
36.图7为本发明提供的一种电子设备的实体结构示意图。
具体实施方式
37.为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
38.下面结合附图,通过具体的实施例及其应用场景对本技术实施例提供的基于位置预测的智慧公路任务协同处理方法进行详细地说明。
39.实施例1
40.本实施例的目的在于研究一种基于位置预测的边缘任务协同(collaboration of edge tasks based on location prediction,cetlp)机制。针对智慧公路场景下海量任务以及车辆高速移动对任务处理低时延的要求,本实施例充分结合车辆运动轨迹特点,提出一种基于gru的位置预测模型。模型充分利用边缘服务器资源实现在车辆运动中对任务的协同计算,极大地减少了任务回程传输时延,并提出一种基于深度强化学习的边缘任务协同算法,根据边缘服务器的负载情况和车辆运动情况,对任务进行最优分配,为车辆提供稳定可持续的服务。
41.本实施例充分结合智慧公路场景下车辆同方向高速移动特点,提出一种面向智慧公路的云边端网络架构,它由云端、mecs(即多个移动边缘计算服务器)和rsu组成的边缘层和终端层组成。
42.1)云端是由计算能力强大的云服务器组成的,同时作为覆盖整个网络的中心可以获取网路中各种资源的使用情况以及任务信息,对任务协同策略进行学习和决策,并向边缘的mecs下达指令。
43.2)边缘层是由mecs和rsu组成,同时它们之间是一一对应的,rsu部署在道路两侧作为车辆v2i无线通信的接入设备为车辆提供无线接入服务。每个rsu覆盖一定范围,因此每个车辆只能访问负责所属范围的rsu设备。mecs作为主要计算单位负责对车辆卸载的任务进行协同计算,并且将计算结果整合后返回给终端。
44.3)终端层由高速移动车辆组成。智慧公路场景下车辆行驶方向大多为直线行驶,在行驶过程中产生计算任务,并通过无线通信的方式将任务数据传输卸载到边缘层进行计算处理。
45.本实施例使用m={m1,

,mi,

,mm}、r={r1,

,ri,

,rm}分别表示网络中的mecs集合和rsu集合。车辆在单位时隙内产生的任务表示为tk={d
k,max
,ak,sk},k∈v,其中v表示车辆卸载任务种类集合,d
k,max
表示当前任务对时延的最低要求,ak为完成当前任务所需cpu
周期数,sk为当前任务卸载的数据量。车辆在单位时间卸载的不同种类的任务数量之间相互独立且服从泊松分布。不同种类任务在道路上所有车辆卸载任务中所占比例为λk,k∈v,同时
46.结合车辆运动特性讨论边缘层对车辆卸载任务的协同计算方式,因此云端在本实施例中不作为计算服务器。rsu作为接入设备对车辆任务进行传输同时负责少量计算任务,彼此之间不能直接通信。mecs作为本实施例重点研究对象,彼此之间进行有线通信,相较于无线通信,能够减少信息之间的相互干扰提高传输效率。mi内负责任务计算的是计算单元组成的集合ui={u
i1
,

,u
ij
,

,u
in
},其中n表示服务器内计算单元数量。mecs计算单元的计算能力即cpu频率,表示为pm。
47.车辆{c1,c2}在m1覆盖范围内,车辆通过r1将任务卸载到m1上。考虑到智慧公路下车辆高速行驶的状态,如果任务完成计算需要较长时间,则当任务计算完成后,车辆可能会通过多个mecs。此时需要对任务计算结果进行回传,回传路径是从负责计算的mecs传输到车辆当前所属范围内的mecs。这种结果回传方式并未考虑到车辆运动特性。
48.为了减少回传带来的时延,本实施例提出一种基于预测模式的边缘层任务协同模型。基于对车辆运动速度、任务传输和计算时延的准确预测,车辆可以在其卸载到前方mecs的任务计算完成时,到达所属rsu的通信区间并对计算结果进行回传。
49.本模型将部分任务提前协同到车辆运行前方的m2和m3上。{c
′1,c
′2}和{c
″1,c
″2}分别表示车辆行驶到m2和m3覆盖范围内的状态。当车辆到达前方mecs(这里即m2和m3)对应的rsu范围内,可以较快地对计算结果进行回传,极大程度的减少了任务计算时间以及计算结果回传时间。不同类型任务的计算时间不同且对时延的敏感程度也不同,为了更好地利用边缘层的计算资源,如何高效协同任务是本实施例的重点。
50.本实施例采用门控循环单元(gate recurrent unit,gru)来预测车辆运动轨迹。
51.为了解决计算复杂问题,gru被提出,更加易于计算,图1为本实施例采用的gru结构图,如图1所示,门控循环单元使用了重置门控r
t
和更新门控z
t
来决定门控循环单元的输出,它们能保存长序列中的有用信息。重置门控决定了如何将新的输入信息x
t
与历史记忆h
t-1
进行结合,表达式如下:
52.r
t
=σ(wr·
[h
t-1
,x
t
])
ꢀꢀ
(1)
[0053]
更新门控定义了前面记忆保存到当前时间的信息量:
[0054]zt
=σ(wz·
[h
t-1
,x
t
])
ꢀꢀ
(2)
[0055]
当前数据内容h

t
包括当前时间的输入数据x
t
以及利用重置门控存储的过去历史信息,表达式为:
[0056][0057]
更新记忆阶段,gru使用一个门控z
t
同时对记忆进行遗忘和选择,当z
t
越接近1,代表对当前数据记忆的越多;反之,代表对当前数据遗忘的越多。因此,当前对记忆的更新就是忘记部分历史信息,保留部分当前信息,表达式如下:
[0058]
[0059]
智慧公路场景下车辆运动轨迹数据是具有时序性的数据集合,车辆的运动信息表示为mov
x
=(t
x
,pos
x
,v
x
),它由时刻t
x
、位置pos
x
以及车速v
x
组成。由此车辆运动轨迹可以表示为:
[0060]
t=(mov1,...,mov
x
,...)
ꢀꢀ
(5)
[0061]
结合车辆轨迹数据的时序性特征,图2为本实施例采用gru神经网络模型作为轨迹预测模型的示意图,如图2所示,通过对车辆历史轨迹、时间和速度等数据的训练,能够对车辆未来的运动轨迹做出预测。
[0062]
由于车辆途径多个移动边缘计算服务器,车辆轨迹预测的模型同样在云端进行训练。车辆在上传行驶数据之前会对数据进行预处理,包括对异常数据的删除、重复数据的去重等,预处理之后的数据实时同步到云端用于运动轨迹模型的训练。根据车辆实时上传的数据,在之后的任务协同中根据车辆位置预测结果实现任务的同向协同。
[0063]
本实施例构建的时延模型如下:
[0064]
(1)传输时延
[0065]
本实施例考虑两种传输路径,包括从车辆到rsu的无线传输、从rsu到mecs以及mecs之间的有线传输。无线传输考虑到通信信噪比,表示为:
[0066][0067]
其中p
i,j
表示设备之间的传输功率,h
i,j
表示天线增益,σ2表示加性高斯白噪声功率。无线带宽表示为b,根据香浓公式,无线传输速率可以表示为:
[0068][0069]
无线传输做出的是预期带宽分配决策,通过为不同服务分配足够的带宽来缓解带宽抖动对任务时延的影响,提高服务的稳定性。有线传输速率表示为v
wired
,在计算时延时统一表示为v。t表示路径上传输的任务大小,dis表示两设备之间的物理距离,c表示传播速度。任务数据在网络中端到端的时延包括传输时延和传播时延,公示如下:
[0070][0071]
则车辆卸载任务tk并获得计算结果的传输时延整体可以表示为:
[0072][0073]
其中,ni表示任务计算结束后车辆所经过的mecs数量,ni=0表示任务上传和结果回传在同一个mecs的范围内完成。表示任务途径mecs的传输时延。
[0074]
可以看出将过多的任务向前传输势必会带来较大的传输时延,因此平衡不同mecs之间的任务量比例是本实施例的重点问题。
[0075]
(2)计算时延
[0076]
mecs为空闲的计算单元分配任务进行计算,则单个计算单元计算单个任务的计算
时延表示为ck/pm。
[0077]
由于mecs的计算资源是有限的,当所有计算单元均有任务执行时,新任务的到来会产生排队的情况,因此排队时延作为计算时延的一部分进行讨论。q
t
表示当前队列即mecs中等待计算的任务量,q
t-1
表示前一时隙队列的任务量,则队列长度表示为:
[0078]qt
=max[q
t-1
+∑t
new-∑t
end
,0]
ꢀꢀ
(10)
[0079]
t
new
表示当前时隙开始时新卸载到mecs的任务集,t
end
表示当前时隙结束后执行完毕的任务集。由此,当任务tk到达mecs时所需的排队时间为:
[0080][0081][0082]
其中,s
ij
是mecs中分配到计算单元u
ij
且在任务tk之前计算的任务集合,t
ij
则表示先于tk被分配到u
ij
的任务,计算单元计算完毕后总是优先分配队列头部任务。因此,mecs对任务的计算时延为:
[0083][0084]
(3)整体时延
[0085]
任务整体时延表示从车辆卸载任务到得到任务处理结果所需时长,包括了任务上传时延、计算时延、传输时延以及回传时延。则任务ti的整体时延如下:
[0086][0087]
单位时间内车辆卸载到mi的任务集合满足ti=∑tk,k∈v。部分任务在当前所属的mecs下进行计算,剩余任务分别协同至前方z-1个mecs。集合ii={i1,

,i
x
,

,iz}表示多个mecs协同计算的任务数据量在任务集合中的占比,其中由此,单位时间内车辆卸载到mi的任务集合的整体时延可以表示为:
[0088][0089]
其中,表示协同至前方第x个mecs的部分任务的时延。
[0090]
根据车辆轨迹预测模型,可以得到车辆到达前方第x个mecs的时间,表示为在边缘层对任务tk进行协同时,应满足,车辆行驶至当前mecs范围的时延大于等于任务计算时延,且小于协同至当前mecs的任务所能接受的最大时延:
[0091][0092]
本实施例针对边缘层构建负载模型。
[0093]
在满足时延最优的条件下,很可能导致单点负载较大,因此加入mecs的负载均衡
程度作为任务协同考虑条件之一,保证网络对任务的可持续处理。通过计算mecs中工作中的计算单元数量n
working
和总计算单元数量n
total
的比例来描述服务器负载状态:
[0094][0095]
用l
mean
表示边缘层网络负载的平均状态,则边缘层负载均衡状态l
balance
如下:
[0096][0097][0098]
根据车辆移动特性,本实施例提出的基于预测的边缘任务协同模型,同时考虑任务计算时延和边缘层负载均衡等因素,为用户提供持续且高效的服务。时延考虑同一时隙下所有卸载到边缘层的所有任务的平均时延表示如下:
[0099][0100]
ω1和ω2分别是时延和网络负载均衡的加权归一化系数,协同优化目标为:
[0101]
min y=ω1d
mean
+ω2l
balance
ꢀꢀ
(20)
[0102]
在上述模型的基础上,本实施例提出一种基于位置预测的边缘任务协同算法,当车辆将新的任务卸载到网络中后,对网络状态进行学习并做出最优分配,保证任务整体的低时延以及网络的负载均衡。网络参数如下:
[0103]
(1)系统状态
[0104]
每个时隙开始时,车辆都会将新的任务卸载到边缘层。此时网络中的状态s
t
包括车辆上传的任务信息、mecs计算中的任务信息以及队列信息。
[0105]
(2)任务协同
[0106]
mecs将车辆卸载到边缘层的任务包头数据传输到云端,云端根据边缘设备信息决定任务向前方协同的比例,即为当前状态下执行的动作a
t
。当协同的mecs数量为z且当前卸载任务数量为n时,动作a
t
的空间量级为n
z-1
,由此可见向前协同的mecs数量越多导致动作空间越大。任务协同向量为ii={i1,

,i
x
,

,iz},表示向前方mecs协同的任务比例。动作的最终选择将由奖励的大小决定,选择过程将在算法流程中介绍。
[0107]
(3)状态转移概率
[0108]
在马尔科夫决策过程中,状态转移概率表示当前网络从当前状态转移到另一种状态的概率,且下一个状态仅与上一个状态有关,本实施例状态转移概率表示为p(s
t+1
|s
t
,a
t
),其中s
t+1
表示网络的下一个状态。
[0109]
(4)奖励函数
[0110]
在采取动作a
t
后,系统将获得奖励r
t
,对于随机过程,瞬时奖励并不表示最大预期长期积累奖励。在drl(deep reinforcement learning,深度强化学习)方法中,这些动作不仅会影响即时奖励,还会影响下一个情况,并因此影响所有后续奖励。为了获得很多奖励,
强化学习必须倾向采取过去尝试过的、被认为有效地产生奖励的动作。采用优化模型值的变化来表示奖励,即:
[0111]rt
=y
t-1-y
t
ꢀꢀ
(21)
[0112]
其中,y
t-1
、y
t
中的y即式子(21)中的协同优化目标,y
t-1
即上一个状态的协同优化目标值,y
t
即当前状态的协同优化目标值。
[0113]
车辆同一时隙将任务集卸载到所属mecs,此时通过算法判断是否将部分任务协同到前方mecs,任务集中的任务彼此独立且不可拆分,因此拆分动作可以视为有限种选择。针对有限动作空间,本实施例使用ddqn算法对问题进行求解。相较于dqn算法,使用两个q网络拆分了动作选择和目标值计算这两步,在一定程度上消除了过度估计的问题,能够让算法收敛到一个较好的结果。
[0114]
当前边缘侧协同网络状态是s
t
,其中包括车辆位置信息、任务计算排队情况以及服务器负载情况。通过q网络输出当前状态下动作价值函数q(s
t
,a
t
)。通过ε-贪婪法网络输出q值中选取最大价值的动作a,也就是mecs将时刻t的任务协同到网络中其他计算设备,由此可以得到当前状态对应的奖励r
t
,并判断当前状态是否是终止状态is_end。{s
t
,a
t
,r
t
,s
t+1
,is_end}集合作为经验存入经验回放集合d,用户更新q网络参数。为了防止目标q值的计算和动作选择之间过度依赖,通过构建一组相同结构的目标网络来计算q值。网络参数的迭代值只针对当前q网络,目标网络只需周期性地复制网络参数,通过这种方式防止模型过度估计。
[0115]
算法在当前q网络找到能够使时延最小且负载均衡程度最好的任务协同方式作为所选取的动作,即:
[0116][0117]
其中,s
t+1
是网络新状态,ω
t
是当前时刻q网络的所有参数,a是网络可以选择的执行动作。通过在当前q网络中选择的动作在目标网络中利用目标网络参数计算目标q值y
t
,即:
[0118][0119]
根据上式和网络终止状态,目标q值表示如下:
[0120][0121]
通过经验回放的方式对神经网络参数进行更新,从经验池中随机选取m个历史经验数据,通过均方差的方式对比与当前q值的差距,使得算法模型不断收敛,损失函数如下:
[0122][0123]
图3为对比了本实施例主要关注的系统时延指标示意图,如图3所示,将本实施例的cetlp与a3c和dqn做比较,随着时间的推移,强化学习算法模型逐渐收敛,车辆卸载到边
缘侧网络的任务的计算时延逐渐降低。相较于对比算法,本实施例算法能够实现较低的系统时延,这是由于本实施例算法在对任务进行协同的同时充分考虑了车辆的移动特性,减少了不必要的数据传输带来的时延。
[0124]
图4为对比了随着协同mecs数量增加不同算法计算时延的变化示意图,如图4所示,发现适当的mecs数量会让系统计算时延明显降低,在数量为3时较为逐渐趋于平缓。较多的协同数量意味着较远的协同距离以及传输时延,盲目的增加协同数量不一定会带来较高的收益,反而会增加系统的计算复杂程度。
[0125]
此外,在实施中还发现,不同大小的任务随着数量的增加,协同比例都在逐渐增加,但计算量以及数据量较大的任务协同的比例整体较高。这是因为计算量和数据量较大的任务的计算和传输时延相对也更长,车辆通过的rsu数量也随之增加,因此本实施例的技术方案所应用的协同分配系统会倾向于将此类任务进行协同。
[0126]
实施例2
[0127]
图5为本发明提供的一种基于位置预测的智慧公路任务协同处理方法流程示意图,如图5所示,本发明提供的一种基于位置预测的智慧公路任务协同处理方法,方法包括:
[0128]
s100、获取车辆的状态信息和任务信息;
[0129]
s200、基于状态信息,预测出车辆位置;
[0130]
s300、基于强化学习模型,以最小化任务的整体时延为目标,将任务协同分配至多个移动边缘计算服务器,其中,移动边缘计算服务器临近预测出的车辆位置。
[0131]
可选地,本方法的实施主体是云端服务器,强化学习模型架设在云端服务器中,对整个任务执行协同分配。
[0132]
可选地,车辆的状态信息和任务信息;均通过rsu传输给mecs,同时mecs的计算结果,由对应的rsu传递给车辆。
[0133]
可选地,位于车辆前方的移动边缘计算服务器在完成分配任务后,在车辆进入其对应的rsu范围内时将任务结果传递给车辆。如此,可以节省大量的传输时延。
[0134]
本实施例通过预测车辆轨迹,将车辆任务在多个mecs上进行横向协同分配,配合车辆运动节省传输时延,使得整体车辆任务的分配是最为优化的。
[0135]
进一步地,在前述实施例的基础上,另一实施例中,本实施例提供一种基于位置预测的智慧公路任务协同处理方法,基于强化学习模型,以最小化任务的整体时延为目标,包括:
[0136]
获取时隙内多个任务;
[0137]
以时隙内多个任务的平均整体时延的最小化,作为强化学习模型的目标。
[0138]
可选地,整体时延是包括计算时延和传输时延的,这里传输时延包括车辆任务上传、任务结果回传车辆、协同分配时的任务数据传递等所有的非任务计算导致的时延。
[0139]
本实施例公布了以最小化任务的整体时延为目标,并非局限于单个任务,而是综合考虑多个任务为整体,使得整体的平均整体时延的最小化,对应的,在强化学习模型中,即不仅仅考虑瞬时直接奖励,还考虑后续的衰减的奖励。
[0140]
进一步地,在前述实施例的基础上,另一实施例中,本实施例提供一种基于位置预测的智慧公路任务协同处理方法,以时隙内多个任务的平均整体时延的最小化,作为强化学习模型的目标,包括:
[0141]
对于时隙内多个任务分配的所有移动边缘计算服务器构成的计算网络;
[0142]
以时隙内多个任务的平均整体时延的最小化,作为强化学习模型的目标,同时,以计算网络的负载均衡作为目标。
[0143]
可选地,按照地理位置,将公路侧的一定数量的移动边缘计算服务器划分为一个计算网络。
[0144]
本实施例公布了在最优化车辆任务的同时,兼顾考虑计算网络负载均衡,防止负载集中导致的设备问题,提高整个计算网络的稳定性。
[0145]
进一步地,在前述实施例的基础上,另一实施例中,本实施例提供一种基于位置预测的智慧公路任务协同处理方法,将任务协同分配至多个移动边缘计算服务器,包括:
[0146]
在将任务进行协同分配时,应满足,车辆行驶至当前移动边缘计算服务器范围的时延大于等于任务的整体时延,且小于任务所能接受的最大时延。
[0147]
通过该追加的约束条件,使得车辆到达前面的mecs时,即可当即获取任务结果。
[0148]
本实施例时延限制条件,一方面减小了时间复杂度,降低了强化学习模型的计算量,另一方面,保证了车辆任务完成的及时性。
[0149]
进一步地,在前述实施例的基础上,另一实施例中,本实施例提供一种基于位置预测的智慧公路任务协同处理方法,基于状态信息,预测出车辆位置,包括:
[0150]
通过gru神经网络模型,基于状态信息,对车辆位置做出预测。
[0151]
可选地,状态信息即车辆的历史位置、时间和速度。
[0152]
本实施例通过gru神经网络模型实现对车辆位置的精确预测。
[0153]
进一步地,在前述实施例的基础上,另一实施例中,本实施例提供一种基于位置预测的智慧公路任务协同处理方法,强化学习模型为ddqn模型。
[0154]
相比dqn模型,ddqn模型拆分了动作选择和目标值计算这两步,在一定程度上消除了过度估计的问题。
[0155]
本实施例通过ddqn模型实现对任务协同的最优化计算,获得更优秀的任务协同效果。
[0156]
下面对本发明提供的基于位置预测的智慧公路任务协同处理系统进行描述,下文描述的基于位置预测的智慧公路任务协同处理系统与上文描述的基于位置预测的智慧公路任务协同处理方法可相互对应参照。
[0157]
图6为本发明提供的一种基于位置预测的智慧公路任务协同处理系统结构示意图,如图6所示,本发明还提供的一种基于位置预测的智慧公路任务协同处理系统,系统包括:
[0158]
获取模块,获取模块获取车辆的状态信息和任务信息;
[0159]
预测模块,预测模块基于状态信息,预测出车辆位置;
[0160]
协同模块,协同模块基于强化学习模型,以最小化任务的整体时延为目标,将任务协同分配至多个移动边缘计算服务器,其中,移动边缘计算服务器临近预测出的车辆位置。
[0161]
本实施例通过预测车辆轨迹,将车辆任务在多个mecs上进行横向协同分配,配合车辆运动节省传输时延,使得整体车辆任务的分配是最为优化的。
[0162]
图7为本发明提供的一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)810、通信接口(communications interface)820、存储器
(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行基于位置预测的智慧公路任务协同处理方法,所述方法包括:
[0163]
获取车辆的状态信息和任务信息;
[0164]
基于所述状态信息,预测出车辆位置;
[0165]
基于强化学习模型,以最小化所述任务的整体时延为目标,将所述任务协同分配至多个移动边缘计算服务器,其中,所述移动边缘计算服务器临近预测出的所述车辆位置。
[0166]
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
[0167]
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的基于位置预测的智慧公路任务协同处理方法,所述方法包括:
[0168]
获取车辆的状态信息和任务信息;
[0169]
基于所述状态信息,预测出车辆位置;
[0170]
基于强化学习模型,以最小化所述任务的整体时延为目标,将所述任务协同分配至多个移动边缘计算服务器,其中,所述移动边缘计算服务器临近预测出的所述车辆位置。
[0171]
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的基于位置预测的智慧公路任务协同处理方法,所述方法包括:
[0172]
获取车辆的状态信息和任务信息;
[0173]
基于所述状态信息,预测出车辆位置;
[0174]
基于强化学习模型,以最小化所述任务的整体时延为目标,将所述任务协同分配至多个移动边缘计算服务器,其中,所述移动边缘计算服务器临近预测出的所述车辆位置。
[0175]
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
[0176]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如rom/ram、磁碟、光盘等,包括若干指
令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
[0177]
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1