一种基于强化学习的通信资源分配方法及其相关设备

文档序号:27080479发布日期:2021-10-24 12:14阅读:173来源:国知局
一种基于强化学习的通信资源分配方法及其相关设备

1.本公开涉及通信技术领域,尤其涉及一种基于强化学习的通信资源分配方法及其相关设备。


背景技术:

2.在信息社会时代,汽车是极为重要的移动信息载体。为了解决车辆的辅助驾驶、车载娱乐等多场景业务需求,汽车需要与外界实现交互,这个互联和数据传输过程通常称为车联网(vehicle

to

everything,v2x)。v2x通信因其在提高道路安全和交通效率以及提供更丰富的信息娱乐体验方面的潜力而备受关注。近年来,智能交通的快速发展对车联网的质量和速率提出了更高的要求,使得车联网面临着通讯需求的爆发式增长以及频谱资源的严重短缺。


技术实现要素:

3.有鉴于此,本公开的目的在于提出一种基于强化学习的通信资源分配方法及其相关设备。
4.基于上述目的,本公开提供了基于强化学习的通信资源分配方法,包括:
5.s1、获取目标用户和非目标用户的位置,初始化所述目标用户的q值、回报函数和状态信息;
6.s2、生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略;
7.s3、根据所述目标用户和非目标用户的位置、所述目标用户的q值和回报函数、所述目标用户的状态信息、所述信道选择策略和所述功率选择策略进行通信资源分配,计算下一时刻的回报函数和状态信息并更新所述目标用户的q值;
8.s4、返回步骤s2循环迭代,直到满足预设的迭代时间或满足预设条件,得到所述目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。
9.进一步,所述生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略,包括:
10.响应于确定所述随机数小于ε,选择使动作策略概率最大的动作策略;
11.响应于确定所述随机数大于等于ε,选择使所述q值最大的动作策略。
12.进一步,所述状态信息包括:目标用户链路的发送端到接收端的信道增益,来自其他目标用户链路发送端的干扰增益,目标用户链路发送端到基站的干扰增益,非目标用户到目标用户链路接收端的干扰增益,每个信道上的所述目标用户和非目标用户数目,所述目标用户和非目标用户的通信服务质量。
13.进一步,所述回报函数与所述目标用户和非目标用户的通信质量、所述目标用户和非目标用户的总的吞吐量有关;
14.当所述目标用户和非目标用户的通信质量满足最低通信门限要求时,所述回报函数大于0;
15.当所述目标用户和/或非目标用户的通信质量不满足最低通信门限要求时,所述回报函数小于0。
16.进一步,所述回报函数表示为:
[0017][0018]
其中,λ
m
和λ
n
分别是平衡所述目标用户链路和所述非目标用户链路的权重,0≤λ
m
≤1,0≤λ
n
≤1,β
m,k
表示所述非目标用户的通信质量,γ
n,k
表示所述目标用户的通信质量,β0表示所述非目标用户的最低通信门限要求,γ0表示所述目标用户的最低通信门限要求,r
m
表示所述非目标用户可实现的最大通信速率,r
n
表示所述目标用户可实现的最大通信速率,r0<0。
[0019]
进一步,所述更新所述目标用户的q值通过下述公式更新:
[0020][0021]
其中,s
t
表示状态信息,a
t
表示动作策略,表示下一时刻状态s
t+1
下所有可能动作策略的最大q值,γ为折扣因子,0≤γ≤1,α表示t时刻下的学习因子。
[0022]
进一步,所述目标用户和非目标用户都不少于一个。
[0023]
基于同一发明构思,本说明书一个或多个实施例还提供了一种基于强化学习的通信资源分配装置,包括:
[0024]
初始化模块,被配置为获取目标用户和非目标用户的位置,初始化所述目标用户的q值、回报函数和状态信息;
[0025]
迭代模块,被配置为:
[0026]
生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略;
[0027]
根据所述目标用户和非目标用户的位置、所述目标用户的q值和回报函数、所述目标用户的状态信息、所述信道选择策略和所述功率选择策略进行通信资源分配,计算下一时刻的回报函数和状态信息并更新所述目标用户的q值;
[0028]
返回迭代模块最开始进行循环迭代,直到满足预设的迭代时间或满足预设条件,得到所述目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。
[0029]
基于同一发明构思,本说明书一个或多个实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至7任意一项所述的方法。
[0030]
基于同一发明构思,本说明书一个或多个实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算
机执行权利要求1至7任一所述方法。
[0031]
从上面所述可以看出,本公开提供的基于强化学习的通信资源分配方法及其相关设备,基于强化学习,综合考虑了目标用户和非目标用户的位置、目标用户的q值和回报函数,通过生成随机数,根据生成的随机数和ε贪婪算法,确定目标用户的信道选择策略和功率选择策略,进一步根据各个参数、信道选择策略和功率选择策略计算下一时刻的各个参数并更新目标用户的q值,最后循环迭代直到满足预设的迭代时间或预设条件,得到目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。使得信令开销降低,实现不同类型用户之间频谱资源的共享,提高频谱资源的利用率,缓解当前频谱资源短缺的问题。
附图说明
[0032]
为了更清楚地说明本公开或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0033]
图1为本公开实施例的基于强化学习的通信资源分配方法流程图;
[0034]
图2为本公开实施例的具体场景示意图;
[0035]
图3为本公开实施例的不同算法下v2v用户对与总的系统容量关系示意图;
[0036]
图4为本公开实施例的基于强化学习的通信资源分配装置结构示意图;
[0037]
图5为本公开实施例的电子设备结构示意图。
具体实施方式
[0038]
为使本公开的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本公开进一步详细说明。
[0039]
需要说明的是,除非另外定义,本公开实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。
[0040]
如背景技术部分所述,现有的通信资源分配方案还难以满足频谱资源的需求。申请人在实现本公开的过程中发现当前智能交通系统应用的无线通信技术主要有基于ieee802.11p的专用短距离无线通信(dedicated short range communications,dsrc)技术和基于蜂窝网络的蜂窝车联网(cellular

v2x,c

v2x)无线接入技术。dsrc技术由于其性能不稳定,具有局限性,只适用于低速度、短距离无线通信场景。与dsrc技术相比,c

v2x将蜂窝通信技术与端到端直接通信技术进行了结合,可以有效实现具有低时延、高可靠性要求的车车通信,具有覆盖范围广、灵活性高、传输速率快等优点。但由于车联网通信中车辆时刻处于移动中,网络拓扑结构快速变化,周围的信道环境也在不断发生变化,因此信道增益衰减严重,容易导致接收信号不理想,而车联网通信相比传统蜂窝用户有更高的可靠性要求和时延要求。因此,如何结合车联网通信性质设计高效的资源分配方案以解决当前频谱资源匮乏问题同时满足v2x通信高可靠性、低时延的要求,是一个需求急切且潜力巨大的
发展方向。
[0041]
有鉴于此,本说明书一个或多个实施例提供了一种基于强化学习的通信资源分配方案,具体的,首先初始化当前时刻的目标用户和非目标用户的位置、目标用户的q值和回报函数,然后生成随机数,根据生成的随机数和ε贪婪算法,确定目标用户的信道选择策略和功率选择策略,进一步根据各个参数、信道选择策略和功率选择策略计算下一时刻的各个参数并更新目标用户的q值,最后循环迭代直到满足预设的迭代时间或预设条件,得到目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。
[0042]
可见,本说明书一个或多个实施例提供了一种基于强化学习的通信资源分配方案,基于强化学习,通过生成随机数和ε贪婪算法综合考虑信道选择策略和功率选择策略,将当前时刻各个参数和选择策略计算并更新迭代,使得最终得到的选择策略能够提高频谱资源的利用率,实现不同类型用户之间频谱资源的共享,缓解当前频谱资源短缺的问题。
[0043]
以下,通过具体的实施例来详细说明本说明书一个或多个实施例的技术方案。
[0044]
参考图1,本说明书一个实施例的基于强化学习的通信资源分配方法,包括以下步骤:
[0045]
步骤s101、获取目标用户和非目标用户的位置,初始化所述目标用户的q值、回报函数和状态信息;
[0046]
本实施例中,将博弈论与q

learning方法结合,以保证非目标用户和目标用户的通信质量为前提条件,以最大化非目标用户和目标用户的系统总容量为优化目标,将每个目标用户对看作q

learning中的智能体,智能体即目标用户可以通过多次感知环境、获取环境的回报函数来更新信道选择策略和功率选择策略以解决频谱分配与功率控制问题;将多个目标用户之间的竞争过程建模为非合作博弈,通过寻找纳什均衡状态实现通信资源分配的最优策略。
[0047]
状态信息s
t
包括全局的信道状态信息和所有智能体的动作行为。本公开中使用分布式资源分配方法,因此每个v2v用户只能知道自己的动作行为,且只能通过观察来获取关于外界环境的相关知识。每个v2v用户n的观测空间有本地信道信息,包括:v2v链路的发送端到接收端的信道增益来自其他v2v链路发送端的干扰增益v2v链路发送端到基站的干扰增益蜂窝用户m到v2v链路接收端的干扰增益除之外,其他的信道增益信息可以在第n个v2v链路的接收端在每个时隙t开始时准确估计,并且我们假设它也可以无延迟反馈到v2v链路的发送端处。干扰增益可以在每个时隙t开始时在基站处估计,然后广播到其覆盖范围内的所有v2v用户,由此会产生较小的信令开销。除了信道状态信息外,环境状态信息s
t
还包括t时刻每个信道上的用户数目n
k
,以及系统中蜂窝用户的通信服务质量β
m,k
和v2v用户的通信服务质量γ
n,k
。因此,t时刻状态信息s
t
的表达式如下:
[0048][0049]
本实施例可以对应多种应用场景,适用于车联网通信、物联网通信和其他联网通信环境中。本实施例中以车联网通信为例,目标用户为多个车辆用户(vehicle

to

vehicle,v2v),非目标用户为多个蜂窝用户。
[0050]
步骤s102、生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略;
[0051]
本步骤中,每个v2v用户要选择的动作包括功率等级选择和复用的信道资源选择,且每个v2v用户至多只能复用一个蜂窝用户的信道资源。v2v用户的动作用a
t
=(b
t
,p
t
)表示,b
t
为t时刻v2v用户的信道选择策略,p
t
为t时刻v2v用户的功率选择策略。为了便于使用强化学习方法进行研究,本实施例中将功率设定为离散值,将所有的功率划分为n
p
个等级,即
[0052][0053]
假设v2v用户可选择的信道资源共有k个,功率有n
p
个等级,那么v2v用户可选择的动作空间的维数为k
×
n
p
,且每个动作对应于信道和功率选择的一个特定组合。
[0054]
在贪婪算法中,ε一般取0.01,随机数选择可以采用:random[0,1];当随机数小于ε时,选择使动作策略概率最大的动作策略;当随机数大于等于于ε时,选择使q值最大的动作策略,因此v2v用户在状态s
t
下将以较大的概率(1

ε)根据q值选择动作,以较小的概率ε根据玻尔兹曼分布策略π(s
t
,a
t
)选取动作。
[0055]
其中,v2v用户在状态s
t
下选择动作a
t
的概率可表示为:
[0056][0057]
其中ρ为玻尔兹曼温度参数:
[0058][0059]
ρ0是初始温度,t是资源分配过程的持续时间。ρ用于控制用户的“探索”程度,ρ越大,各动作的概率分布越均匀,被选择的可能性越接近,探索的范围越大;当ρ趋于0时,每个状态趋向于选择最大q值对应的动作。π(s
t
,a
t
)越大,动作a
t
越容易被用户选择。
[0060]
步骤s103、根据所述目标用户和非目标用户的位置、所述目标用户的q值和回报函数、所述目标用户的状态信息、所述信道选择策略和所述功率选择策略进行通信资源分配,计算下一时刻的回报函数和状态信息并更新所述目标用户的q值;
[0061]
本实施例中,回报函数表示为:
[0062][0063]
其中λ
m
和λ
n
分别是平衡蜂窝链路和v2v链路目标的权重,0≤λ
m
≤1,0≤λ
n
≤1。该回报函数可以保证蜂窝用户和v2v用户的通信质量,提升车联网系统蜂窝用户和v2v用户的总容量。
[0064]
本实施例中,回报函数与蜂窝用户的通信质量β
m,k
、v2v用户的通信质量γ
n,k
和蜂
窝用户与v2v用户总的吞吐量有关。蜂窝用户与v2v用户总的吞吐量的目标函数表示为:
[0065][0066]
其约束条件为:
[0067]
β
m,k
≥β0[0068]
用于保证系统中蜂窝用户的通信质量,β0代表蜂窝链路最低通信质量要求;
[0069]
γ
n,k
≥γ0[0070]
用于保证v2v用户的通信质量,γ0代表v2v链路最低通信质量要求;
[0071][0072]
表示每个v2v用户对至多同时复用一个信道;
[0073]
0<p
n
≤p
max
[0074]
表示所有v2v用户的发射功率均不能超过最大发射功率门限p
max

[0075]
如果蜂窝用户的通信质量能够满足最低通信门限要求即β
m,k
≥β0且v2v用户的通信质量也能够满足最低通信门限要求即γ
n,k
≥γ0,那么系统会获得蜂窝链路和v2v链路的信道容量的组合这样一个正向的回报函数作为对此次动作选择的奖励;反之,若是二者中有一个无法满足最低通信质量要求,那么系统将会获得一个负向的回报函数r0(r0<0)作为对此次动作选择的惩罚。
[0076]
本实施例中,q值更新公式表示为:
[0077][0078]
式中表示下一状态s
t+1
下所有可能动作的最大q值。γ为折扣因子,0≤γ≤1,γ越接近0表示q

learning越关注当下的回报,γ越接近1表示q

learning越关注未来回报的影响。α是在t时刻智能体的学习因子,当α=0时表示当前系统不学习任何内容,状态信息不会改变系统的决策;当α=1时表示系统只关注最新的状态信息。
[0079]
步骤s104、返回步骤s102循环迭代,直到满足预设的迭代时间或满足预设条件,得到所述目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。
[0080]
本实施例中,对所有目标用户进行预设迭代时间的步骤s102

s104的循环强化学习,由于q

learning算法中初始信道选择策略和功率选择策略是随机的,因此理论上来说学习过程中会探索到所有的信道选择策略和功率选择策略。预设条件为:所有的目标用户均满足,当其他目标用户的动作策略(信道选择策略和功率选择策略)不改变时,该目标用户的动作策略是最优的,即满足博弈论的收敛条件,达到纳什均衡状态,找到最优信道选择策略和功率选择策略。
[0081]
下面,给出本实施例的基于强化学习的通信资源分配方法的一个具体的应用场景。参考图2,通信环境为城市街区场景下单个蜂窝小区中多个蜂窝用户和v2v用户同时通信的情况,在基站的覆盖范围内有多个蜂窝用户v2v用户对,信道的数量与蜂窝用户的数量
相同,蜂窝用户随机分布在小区覆盖范围内,车辆用户在距离基站一定距离的道路上。随着迭代次数的增加,回报函数的值整体处于增加趋势。本实施例所考虑的区域为单个蜂窝小区,小区中包含基站、随机分布的蜂窝用户和正在道路上行驶的v2v用户。在图1所示的车联网通信系统模型当中,假设系统中存在m个蜂窝用户n个v2v用户对k个可用的正交频谱资源本实施例中,系统中蜂窝用户的数量与信道的数量相等,即m=k,每个正在通信的蜂窝用户都被分配了相互正交的频谱资源,v2v用户可以复用蜂窝用户的频谱资源,且一个频段可以同时被多个v2v用户对复用。在此基础上,在时域维度对频谱共享优化,即,各用户以时分的方式共享频谱资源,当多个共享用户在同一时间接入相同的信道频段时会产生干扰。
[0082]
需要注意的是,虽然本实施例在单一频谱接入维度进行分析,但是该方法可方便的扩展至多维域频谱共享。
[0083]
参考图3,展示了蜂窝用户和v2v用户对的系统总容量随着v2v用户对数量变化的曲线。从图中可以看出,本实施例所提方法的性能接近集中式算法。集中式最优资源分配算法中基站可以获取到系统全部的信息从而作出最优的决策,但同时也会有更多的信令开销。而本实施例所提的基于强化学习的通信资源分配方法,各v2v用户对依据局部观测进行分散决策,极大地减小了信令开销,能够在减小系统开销的同时作出较优决策。
[0084]
可见,本实施例的基于强化学习的通信资源分配方法。降低了信令开销,实现蜂窝用户与v2v用户之间频谱资源的共享,提高频谱资源的利用率,缓解当前频谱资源短缺的问题;同时本实施例将博弈论与q学习相结合,在保证蜂窝用户和v2v用户的通信质量的前提下,使v2v用户通过自适应学习收敛到最优策略,保证了车联网通信的高可靠性和低延迟要求,而且可以提升系统总的吞吐容量。
[0085]
需要说明的是,本公开实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本公开实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
[0086]
需要说明的是,上述对本公开的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
[0087]
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种基于强化学习的通信资源分配装置。
[0088]
参考图4,所述基于强化学习的通信资源分配装置,包括:
[0089]
初始化模块401,被配置为获取目标用户和非目标用户的位置,初始化所述目标用户的q值、回报函数和状态信息;
[0090]
迭代模块402,被配置为:
[0091]
生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略;
[0092]
根据所述目标用户和非目标用户的位置、所述目标用户的q值和回报函数、所述目标用户的状态信息、所述信道选择策略和所述功率选择策略进行通信资源分配,计算下一时刻的回报函数和状态信息并更新所述目标用户的q值;
[0093]
返回迭代模块最开始进行循环迭代,直到满足预设的迭代时间或满足预设条件,得到所述目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。
[0094]
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本公开时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
[0095]
上述实施例的装置用于实现前述任一实施例中相应的基于强化学习的通信资源分配方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
[0096]
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的基于强化学习的通信资源分配方法。
[0097]
图5示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
[0098]
处理器1010可以采用通用的cpu(central processing unit,中央处理器)、微处理器、应用专用集成电路(application specific integrated circuit,asic)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
[0099]
存储器1020可以采用rom(read only memory,只读存储器)、ram(random access memory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
[0100]
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入输出/模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
[0101]
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如usb、网线等)实现通信,也可以通过无线方式(例如移动网络、wifi、蓝牙等)实现通信。
[0102]
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
[0103]
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
[0104]
上述实施例的电子设备用于实现前述任一实施例中相应的基于强化学习的通信
资源分配方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
[0105]
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的基于强化学习的通信资源分配方法。
[0106]
本实施例的计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其他类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其他内存技术、只读光盘只读存储器(cd

rom)、数字多功能光盘(dvd)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
[0107]
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上任一实施例所述的基于强化学习的通信资源分配方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
[0108]
需要说明的是,本公开的实施例还可以以下方式进一步描述:
[0109]
一种基于强化学习的通信资源分配方法,包括:
[0110]
s1、获取目标用户和非目标用户的位置,初始化所述目标用户的q值、回报函数和状态信息;
[0111]
s2、生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略;
[0112]
s3、根据所述目标用户和非目标用户的位置、所述目标用户的q值和回报函数、所述目标用户的状态信息、所述信道选择策略和所述功率选择策略进行通信资源分配,计算下一时刻的回报函数和状态信息并更新所述目标用户的q值;
[0113]
s4、返回步骤s2循环迭代,直到满足预设的迭代时间或满足预设条件,得到所述目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。
[0114]
进一步,所述生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略,包括:
[0115]
响应于确定所述随机数小于ε,选择使动作策略概率最大的动作策略;
[0116]
响应于确定所述随机数大于等于ε,选择使所述q值最大的动作策略。
[0117]
进一步,所述状态信息包括:目标用户链路的发送端到接收端的信道增益,来自其他目标用户链路发送端的干扰增益,目标用户链路发送端到基站的干扰增益,非目标用户到目标用户链路接收端的干扰增益,每个信道上的所述目标用户和非目标用户数目,所述目标用户和非目标用户的通信服务质量。
[0118]
进一步,所述回报函数与所述目标用户和非目标用户的通信质量、所述目标用户和非目标用户的总的吞吐量有关;
[0119]
当所述目标用户和非目标用户的通信质量满足最低通信门限要求时,所述回报函数大于0;
[0120]
当所述目标用户和/或非目标用户的通信质量不满足最低通信门限要求时,所述
回报函数小于0。
[0121]
进一步,所述回报函数表示为:
[0122][0123]
其中,λ
m
和λ
n
分别是平衡所述目标用户链路和所述非目标用户链路的权重,0≤λ
m
≤1,0≤λ
n
≤1,β
m,k
表示所述非目标用户的通信质量,γ
n,k
表示所述目标用户的通信质量,β0表示所述非目标用户的最低通信门限要求,γ0表示所述目标用户的最低通信门限要求,r
m
表示所述非目标用户可实现的最大通信速率,r
n
表示所述目标用户可实现的最大通信速率,r0<0。
[0124]
进一步,所述更新所述目标用户的q值通过下述公式更新:
[0125][0126]
其中,s
t
表示状态信息,a
t
表示动作策略,表示下一时刻状态s
t+1
下所有可能动作策略的最大q值,γ为折扣因子,0≤γ≤1,α表示t时刻下的学习因子。
[0127]
进一步,所述目标用户和非目标用户都不少于一个。
[0128]
进一步,一种基于强化学习的通信资源分配装置,包括:
[0129]
初始化模块,被配置为获取目标用户和非目标用户的位置,初始化所述目标用户的q值、回报函数和状态信息;
[0130]
迭代模块,被配置为:
[0131]
生成随机数,根据所述随机数和ε贪婪算法,确定所述目标用户的信道选择策略和所述目标用户的功率选择策略;
[0132]
根据所述目标用户和非目标用户的位置、所述目标用户的q值和回报函数、所述目标用户的状态信息、所述信道选择策略和所述功率选择策略进行通信资源分配,计算下一时刻的回报函数和状态信息并更新所述目标用户的q值;
[0133]
返回迭代模块最开始进行循环迭代,直到满足预设的迭代时间或满足预设条件,得到所述目标用户的最终信道选择策略和所述目标用户的最终功率选择策略,并根据所述最终信道选择策略和所述最终功率选择策略,进行通信资源分配。
[0134]
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本公开的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本公开实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。
[0135]
尽管已经结合了本公开的具体实施例对本公开进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态ram(dram))可以使用所讨论的实施例。
[0136]
本公开实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本公开实施例的精神和原则之内,所做的任何省略、修改、等同替换、
改进等,均应包含在本公开的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1