一种面向边缘智能的多神经网络实现工作流调度方法

文档序号:36253808发布日期:2023-12-03 10:02阅读:45来源:国知局
一种面向边缘智能的多神经网络实现工作流调度方法

本发明属于工作流任务调度,涉及一种面向边缘智能的多神经网络实现工作流调度方法,针对边缘计算场景,提出了一种解决边缘计算中多神经网络训练任务的deepint方法,即通过将计算任务从边缘设备(md)卸载到边缘节点服务器(enb)来加速多cnn的训练任务,同时对md的cpu和gpu动态调频,最小化系统训练时延和md的能耗。


背景技术:

1、人工智能(ai)技术,特别是深度神经网络(dnn),已经取得了最先进的性能,并广泛应用于各种应用领域。最近,随着高性能片上系统(soc)的出现,在移动设备和物联网设备上运行dnn应用程序获得了极大的欢迎和关注。然而,在资源有限的终端设备上执行所有计算密集型dnn推理任务是具有挑战性的,这可能会导致无法忍受的延迟和能耗。为了缓解上述问题,边缘计算范式的出现,将计算、存储和网络资源部署到网络边缘,可以通过将部分计算任务卸载到边缘节点来加速dnn推理。

2、边缘设备目前能够完成cnn任务,但是,因为边缘设备具有有限的存储器、计算资源和功率处理能力,不能满足实际场景中的完成多神经网络任务、节约计算资源和减小训练时延的需求。本专利提出了一种边缘智能场景下的多神经网络任务工作流调度方法,基于元启发式优化技术粒子群优化(pso)实现,给出了从工作流到任务执行位置、cpu频率、gpu频率的可能调度方案,以最小化边缘计算中的延迟和能耗。


技术实现思路

1、本发明的目的是针对边缘计算场景中,执行多个神经网络模型训练任务的环境下,提出一种面向边缘智能的多神经网络实现工作流调度方法。

2、边缘设备目前能够完成cnn任务,但是,因为边缘设备具有有限的存储器、计算资源和功率处理能力,不能满足实际场景中的完成多神经网络任务、节约计算资源和减小训练时延的需求;本发明提出了一种边缘智能场景下的多神经网络任务工作流调度方法deepint,基于元启发式优化技术粒子群优化(pso)实现,给出了从工作流到任务执行位置、cpu频率、gpu频率的可能调度方案,以最小化边缘计算中的延迟和能耗;

3、第一方面,本发明提供一种面向边缘智能的多神经网络实现工作流调度方法,包括以下步骤:

4、步骤(1)、建立资源限制下的最优工作流调度模型;

5、步骤(2)、初始化工作流;

6、步骤(3)、使用粒子群算法进行优化迭代,得到最优工作流调度模型的最优解,通过比较这些最优解,获得多神经网络dnns的最优卸载点以及cpu、gpu的最优工作频率;粒子群中的相互作用基于拓扑邻域,每个粒子都会与最佳邻居的向量进行通信,从而获得该向量的适应度值gbest,并在其个体行为中进行相应的调整;

7、在粒子群优化的过程中,循环迭代,直到达到最大迭代次数或者适应度值达到预设阈值,输出最优粒子;在每次迭代过程中,粒子的速度和位置分别由式(1)-(2)表示为:

8、

9、

10、其中w表示为惯性权重参数;c1表示为个体学习因子,c2表示为群体学习因子;r1和r2表示为随机数;

11、采用自适应策略调整前粒子空间搜索能力,根据单个神经网络dnn的网络结构和粒子的质量获取惯性权重参数w,以更加适应dnn模型的有向无环图dag结构;根据全局最优粒子和当前粒子之间的差异来自适应地调整粒子的搜索能力,具体的计算公式如下:

12、

13、其中表示全局最优的粒子位置gbest与当前粒子之间的空间坐标差值;其中wmax和wmin分别表示初始阶段给定w的最大值和最小值;

14、步骤(4)、根据步骤(3)得到的最优工作流卸载方案,从边缘设备md上卸载部分训练任务到边缘节点服务器enb上,并按照得到的cpu的最优工作频率、gpu的最优工作频率进行计算任务,优化多神经网络dnns训练任务的计算时延和边缘设备md的能耗。

15、第二方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行所述的方法。

16、第三方面,本发明提供一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现所述的方法。

17、本发明的有益效果:

18、本发明设计了一种面向边缘智能的多神经网络计算工作流调度方法,通过将多神经网络训练任务卸载到资源充足的边缘节点,可以增强终端设备的计算能力,从而减少延迟并节省能源。另外提出自适应策略获取惯性权重参数w,以更加适应dnn模型的有向无环图dag结构,提高神经网络dnn的搜索能力。

19、本发明根据边缘计算场景中,多个神经网络模型训练的复杂场景的实际需要,提供了一种时间性能刚好、边缘设备能耗更低的方案。本发明提出了deepint方法,这是一种将计算从边缘设备卸载到边缘节点来加速多dnn训练,同时降低系统能耗的方法。结果表明deepint优于现有系统,降低了联合推理延迟和能耗,提高了边缘智能场景下联合推理的可行性和效率。



技术特征:

1.一种面向边缘智能的多神经网络实现工作流调度方法,其特征在于所述方法包括以下步骤:

2.根据权利要求1所述方法,其特征在于步骤1.1具体是:

3.根据权利要求1所述方法,其特征在于步骤1.2中时延模型构建过程如下:

4.根据权利要求1所述方法,其特征在于步骤(2)具体是:

5.一种计算机可读存储介质,其上存储有计算机程序,当所述计算机程序在计算机中执行时,令计算机执行权利要求1-4中任一项所述的方法。

6.一种计算设备,包括存储器和处理器,所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,实现权利要求1-4中任一项所述的方法。


技术总结
本发明公开一种面向边缘智能的多神经网络实现工作流调度方法。通过将计算任务从边缘设备(MD)卸载到边缘节点服务器(eNB)来加速多CNN的训练任务,同时对MD的CPU和GPU动态调频,最小化系统训练时延和MD的能耗。本发明设计了一种面向边缘智能的多神经网络计算工作流调度方法,通过将多神经网络训练任务卸载到资源充足的边缘节点,可以增强终端设备的计算能力,从而减少延迟并节省能源。另外提出自适应策略获取惯性权重参数w,以更加适应DNN模型的有向无环图DAG结构,提高神经网络DNN的搜索能力。

技术研发人员:胡海洋,吴迪,李忠金,宋建飞
受保护的技术使用者:杭州电子科技大学
技术研发日:
技术公布日:2024/1/16
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1