一种多智能体搜索情感目标路径规划方法及装置

文档序号:29083493发布日期:2022-03-02 00:42阅读:211来源:国知局
一种多智能体搜索情感目标路径规划方法及装置

1.本发明涉及多智能体搜索领域,具体而言,尤其涉及一种多智能体搜索情感目标路径规划方法及装置。


背景技术:

2.智能体是指驻留在某一环境下,能持续自主地发挥作用,具备驻留性、反应性、社会性、主动性等特征的计算实体。实际工程领域常见的智能体包括无人机、无人车、无人船、机器人等。
3.目前多智能体搜索动态目标技术领域,一般研究仅仅考虑了目标的行动能力对于今后目标概率位置的影响,没有考虑到目标的情感对于行动决策的影响,这种只根据行动能力而进行的概率图模型建模是不全面的。此外,以往的对于协同优化的多目标函数一般是固定不变的,不会在任务过程中实时调整多目标函数的权重系数,使得收益与代价不能保证多目标函数起到良好的协调作用,即收益与代价在数量级不是一个等级,导致多目标函数失去指导作用。


技术实现要素:

4.根据上述提出现有智能体路径规划方案无法有效执行搜索情感目标任务的技术问题,而提供一种多智能体搜索情感目标路径规划方法及系统。本发明通过马尔科夫分析法建立目标的情感状态转移模型,结合“情感-位移”决策概率和传感器探测概率模型建立并更新实时目标概率图,然后通过一种改进的多狼群算法对多智能体在未知区域内搜索具有情感的动态目标进行路径规划。
5.本发明采用的技术手段如下:
6.一种多智能体搜索情感目标路径规划方法,包括:
7.获取预设的基于基本情感集合、情感状态自转移概率矩阵和初始时刻情感状态分布概率矩阵,通过马尔科夫链情感自转移模型获取某一时刻的情感状态概率分布矩阵;
8.在搜索目标的活动范围内构建栅格系统,对各栅格的目标概率进行迭代,并在此基础上结合“情感-位移”转换概率矩阵,依次对各栅格进行计算从而更新目标概率图;
9.定义智能体搜索目标首次预警后消失时为初始时刻,获取此时目标的所处栅格,并构建初始时刻的目标概率图模型;
10.基于概率收益、重复路径代价、能量损耗代价、转向调整代价和实时动态自适应代价权重系数构建智能体搜索协同优化实时自适应多目标函数;
11.基于改进的多狼群算法对所述多智能体搜索协同优化实时多目标函数进行求解,得到最终搜索路径规划方案。
12.进一步地,对各栅格的目标概率进行迭代,包括:
13.设定目标每个时间步内的位移决策至多存在九种情况,依次定义当前栅格对应的发散位移集合以及发散位移集合对应的栅格集合、聚拢位移集合以及聚拢位移集合对应的
栅格集合;
14.计算获取某时刻聚拢位移栅格集合中所有栅格向对应中心栅格位移的概率,即对某一栅格的聚拢位移概率集合求和,进而可通过情感状态与位移决策求解对应中心栅格的存在目标的概率,并作为任务中实时更新某时刻未检测的栅格存在目标的概率。
15.进一步地,方法还包括依据天气能见度设计智能体传感器探测概率与虚警概率模型,作为在任务中实时更新某时刻检测的栅格存在目标概率。
16.进一步地,基于改进的多狼群算法对所述多智能体搜索协同优化实时多目标函数进行求解,包括基于人工狼步长因子基础值、迭代后某普通人工狼所处位置的势场函数值以及预设的势场影响因子计算步长因子;所述迭代后某普通人工狼所处位置的势场函数值根据迭代时该普通人工狼所处位置的引力势场函数、迭代时该普通人工狼所处位置斥力势场函数求取。
17.进一步地,基于改进的多狼群算法对所述多智能体搜索协同优化实时多目标函数进行求解,包括设置“嚎叫”环节以实现狼群之间的信息共享,具体包括以下步骤:
18.a.比较得出子狼群中的预备最优解对应气味浓度;
19.b.接收其他子狼群之间的最优解信息;
20.c.判断此解是否满足算法的全局性要求,若此解与其他已知人工狼探索范围发生重复,则对该函数值进行惩罚然后转到步骤a;否则,转到步骤d;
21.d.判断此解是否满足约束条件,若不满足约束条件,选择次优解,转回步骤d,若满足约束条件,转到步骤e;
22.e.将此解发布到所有狼群之间。
23.进一步地,基于改进的多狼群算法对所述智能体搜索协同优化多目标函数进行求解,包括气味浓度的数值和速率两方面对人工狼进行淘汰,并相应的生成与淘汰数量相等的新的人工狼。
24.本发明还公开了一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序运行执行上述任意一项所述的一种多智能体搜索情感目标路径规划方法。
25.较现有技术相比,本发明具有以下优点:
26.1、本发明采用的目标概率图更新模型可以在任务中对目标概率图进行更新。对比以往只能根据先验目标概率图这一固定信息进行搜索,其优点在于具有实时性,能够在任务过程中更加准确地对目标可能位置进行搜索。
27.2、本发明采取实时自适应多目标函数能够改善多目标函数在任务中实时性,保持其对多智能体的指导作用。
28.3、相对于传统狼群算法的不足,本发明将从以下三个方面对算法进行改进:1)利用人工势场法调整步长因子,势力函数值与步长因子负相关、与步长正相关,利用不断模仿学习探索过程中较好的头狼的探索规律,从而使寻优过程更加灵活稳定,并防止越过最优解。2)通过建立多狼群应对多智能体的最优航迹求解问题,并增设“嚎叫”环节增强狼群间的信息交流,防止探索空间的重复。3)健全人工狼更新淘汰机制使狼群尽可能保留探索效果好的狼,防止因淘汰数目过多导致算法趋于随机搜索的同时,保证了狼群个体的多样性。
附图说明
29.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做以简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
30.图1为本发明实施例中单步情感目标发散位移图。
31.图2为本发明实施例中单步情感目标聚拢位移图。
32.图3为本发明实施例中多狼群协同搜索结构图。
33.图4为本发明实施例中imwpa算法流程图。
具体实施方式
34.为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
35.需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
36.本发明提供了一种多智能体搜索情感目标路径规划方法,主要包括马尔科夫分析法情感目标概率图建模步骤;传感器探测概率与虚警概率解耦模型构建步骤;搜索性能指标多目标函数设计步骤;以及改进的多狼群算法(improved multi-wolf pack algorithm,imwpa)对目标函数进行求解的步骤。
37.一种多智能体搜索情感目标路径规划方法,包括:
38.s1、获取预设的基于基本情感集合、情感状态自转移概率矩阵和初始时刻情感状态分布概率矩阵,通过马尔科夫链情感自转移模型获取某一时刻的情感状态概率分布矩阵。具体来说:
39.首先,对马尔科夫分析法情感目标概率图进行建模,包括:
40.设置π=(π1,π2,...,πn)1×n为初始时刻情感状态分布概率矩阵,e=emotion={e1,e2,...,en}表示n种基本情感集合,d={d1,d2,...,dg},(g≥n)为位移决策集合,即,每种情感状态下对应一种或多种位移决策。
41.a
ij
=p(e(t
k+1
)=ej|e(tk)=ei),(i,j∈(1,2,...,n))
ꢀꢀ
公式(1)
42.其中,an为情感状态自转移概率矩阵a
ij
表示从上一时刻的情感状态e(tk)=ei到下一时刻e(t
k+1
)=ej的转移概率,概率a
ij
非负,并且每一行(即任意时刻)所有可能出现情感状态的概率和为1。
43.根据马尔科夫链从起始时刻经历k步后的情感自转移矩阵a(tk)等于之前所有转移矩阵的连续矩阵乘法,即
44.an(tk)=πa
nk-1
ꢀꢀ
公式(2)
45.综上,从起始到某一时刻tk的情感状态概率分布矩阵表示方法如下,
[0046][0047]
情感状态概率分布矩阵表示在tk时刻每种情感对应概率,在情感状态概率分布的基础上,将情感对应位移,即可得出目标某一时刻的位移概率。
[0048]
s2、在搜索目标的活动范围内构建栅格系统,对各栅格的目标概率进行迭代,并在此基础上结合“情感-位移”转换概率矩阵,依次对各栅格进行计算从而更新目标概率图。定义智能体搜索目标首次预警后消失时为初始时刻,获取此时目标的所处栅格,并构建初始时刻的目标概率图模型。
[0049]
具体来说,首先对目标概率图进行初始化。定义目标首次预警后消失时为初始时刻t0,目标的所处栅格为(x
t
(t0),y
t
(t0)),此时
[0050][0051]
其中,(xm,ym)任务区域中的栅格根据坐标进行的编号。该式旨在建立初始时刻的目标概率图模型,并作为接下来的目标概率图的迭代更新的基础。
[0052]
对智能体某时刻未参与搜索的栅格的目标概率进行更新。具体地,栅格(xm,ym)在tk时刻对应的目标概率根据马尔科夫链情感自转移模型进行迭代更新。
[0053]
进一步来说,对各栅格的目标概率进行迭代,包括:
[0054]
a.设定目标每个时间步内的位移决策至多存在九种情况,依次定义当前栅格对应的发散位移集合以及发散位移集合对应的栅格集合、聚拢位移集合以及聚拢位移集合对应的栅格集合;
[0055]
b.计算获取某时刻聚拢位移栅格集合中所有栅格向对应中心栅格位移的概率,即对某一栅格的聚拢位移概率集合求和,进而可通过情感状态与位移决策求解对应中心栅格的存在目标的概率,并作为任务中实时更新某时刻未检测的栅格存在目标的概率。
[0056]
具体来说,本发明设定目标每个时间步内的位移决策至多存在九种情况,定义栅格(xm,ym)作为中心栅格时的发散位移集合为d={d1,d2,...,dj,...,d9},dj={(δxj,δyj)},其中δxj,δyj=0,
±
1,(j=1,2,...,9),单步发散位移情况如图1所示。定义栅格(xm,ym)作为中心栅格时的发散位移集合对应的栅格集合为gm={g1,g2,...,gj,...,g9},其中δxj,δyj=0,
±
1,(j=1,2,...,9)。位移栅格集合gm与发散位移集合d一一对应。
[0057]
定义聚拢位移集合其中δxj,δyj=
0,
±
1,(j=1,2,...,9),集合与集合d中的位移取相反方向,即位移栅格gm向栅格(xm,ym)移动的方向,如图2所示。
[0058]
tk时刻聚拢位移概率分布矩阵表示该时刻位移栅格集合gm中所有栅格向栅格(xm,ym)位移对应的概率集合,计算方法如下,
[0059][0060]
其中,
[0061][0062]
该式旨在建立起情感状态与位移决策两者的联系,为“情感-位移”转换概率矩阵,它的行向量表示每种情感下九种位移对应的概率集合,列向量对应该位移在不同情感下的概率值,表示在情感状态ei的情况下,进行位移的概率,并且非负,任意情感状态下执行所有位移的概率和为1。
[0063]
由于目标位于栅格(xm,ym)在一个时间步内只能向它的位移栅格集合gm移动,因此,在计算某个栅格tk时刻存在目标的概率,等价于对tk时刻位移栅格集合gm内所有栅格向栅格(xm,ym)位移的概率进行求和,最终计算公式如下所示,
[0064][0065]
式中,表示位移栅格集合gm中栅格在tk上一时刻对应的概率值,表示位移栅格集合gm中栅格在tk时刻向栅格(xm,ym)移动的概率,它来自公式(5)中tk时刻聚拢位移概率分布矩阵中对应位移的概率值。gs(tk)表示智能体在tk时刻搜索的栅格集合。
[0066]
在多智能体某一时刻未参与搜索的每一个栅格目标概率更新都按公式(7)更新。
[0067]
该步骤还包括:
[0068]
s21、依据天气能见度设计智能体传感器探测概率与虚警概率模型,在任务中实时更新某时刻检测的栅格存在目标概率。
[0069]
具体来说,在任务过程中,智能体的传感器会受到环境的影响从而降低搜索准确率,本专利将依据天气能见度设计一套传感器探测概率与虚警概率模型,如下所示:
[0070][0071][0072]
其中,pd∈[0,1]为探测概率,表示栅格真实存在目标,同时传感器检测结果也为存在目标的概率。ρ
χ
代表传感器检测到的迷雾浓度;表示迷雾对探测概率的影响系数;迷雾浓度为常数且当迷雾浓度大于时,传感器失去探测能力。pf∈[0,1]为虚警率,表示栅格实际不存在目标,传感器检测结果却为存在目标的概率。该式表明传感器在迷雾浓度小于不会出现虚警情况,迷雾浓度大于时,传感器失去探测能力,对于探测结果不予信任。
[0073]
智能体传感器系统确定栅格(xm,ym)存在目标的概率由智能体s在tk时刻检测到该栅格存在目标事件和该栅格是否实际存在目标事件共同决定。基于贝叶斯规则,设计智能体s对于tk时刻搜索的栅格(xm,ym)的概率更新函数如下,
[0074][0075]
在多智能体某一时刻参与搜索的每一个栅格按公式(10)更新,并结合公式(7)即可得到该时刻总的目标概率图。
[0076]
s3、基于概率收益、重复路径代价、能量损耗代价、转向调整代价和实时动态自适应代价权重系数构建智能体搜索协同优化实时自适应多目标函数。
[0077]
具体来说,在性能指标的之前需要考虑智能体的机动性约束ck:和避碰约束cd:d
ab
(tk)≥d
min
,(a,b=1,2,...,ns,a≠b)。式中,表示tk时刻智能体的转向角度,表示智能体的最大转向角度,d
ab
(tk)表示tk时刻智能体a、b之间的距离,d
min
表示智能体之间的最小安全距离。
[0078]
根据实际情况将系统tk时刻的协同优化问题描述为多目标函数f(tk):
[0079]
f(tk)=r
p
(tk)-ω(tk)[jo(tk)-je(tk)-ja(tk)]
ꢀꢀ
公式(11)
[0080]
式中,r
p
表示概率收益,jo表示重复路径代价,je表示能量损耗代价,ja表示转向调整代价,ω(tk)为动态自适应代价权重系数,用每个栅格的平均概率值表示,以防止概率收益与其他代价不在一个数量级,可以更好地借助实时多目标函数来衡量路径收益,计算方法如下,
[0081][0082]
式中,表示对任务区域中所有栅格进行概率求和,n
cell
表示任务区域内的栅格总数,ω表示任务区域。
[0083]
(1)概率收益r
p
(tk)
[0084]
概率收益r
p
(tk)用于描述在tk时刻栅格(xm,ym)所对应的概率值收益,计算方法如下
[0085][0086]
式中k
p
表示概率收益系数。
[0087]
(2)路径重复代价jo(tk)
[0088]
为了优化搜索路径,避免重复的路径造成碰撞危险、搜索时间浪费以及能量损耗,需考虑路径的重复选择问题,引入路径重复代价函数jo(tk),表示方法如下:
[0089][0090]
式中,ko表示路径重复代价系数,l
(
·
)
表示智能体搜索路径覆盖栅格集合,card(
·
)函数表示集合中元素个数。
[0091]
(3)能量损耗代价je(tk)
[0092]
在海域中,智能体在执行任务过程中很难得到补给,限制了智能体的任务航程,因此,考虑到智能体的续航问题,则需要优化能量消耗,本文将引入代价函数je(tk)描述智能体执行任务中的能量损耗。如下所示:
[0093]
je(tk)=jk(tk)+jf(tk)
ꢀꢀ
公式(15)
[0094]
式中,jk(tk)为机械能损耗代价,表现为燃料消耗;jf(tk)表示电能损耗代价,包括各种电子仪器的电能损耗。
[0095]
(4)转向调整代价ja(tk)
[0096]
由于智能体执行任务时速度很快,转向角度变化过大存在造成不稳定安全因素的可能,同时转弯角过大对于航迹平滑度以及能量消耗都是不可取的,因此本文设计航迹调整代价ja(tk)表达方式如下:
[0097][0098]
ka为航迹调整代价系数。
[0099]
s4、基于改进的多狼群算法对所述多智能体搜索协同优化实时多目标函数进行求解,得到最终搜索路径规划方案。具体包括:
[0100]
s41、基于人工狼步长因子基础值、迭代后某普通人工狼所处位置的势场函数值以
及预设的势场影响因子计算步长因子;所述迭代后某普通人工狼所处位置的势场函数值根据迭代时该普通人工狼所处位置的引力势场函数、迭代时该普通人工狼所处位置斥力势场函数求取。
[0101]
具体来说,采用人工势场法对人工狼的步长进行调节。头狼h会对普通人工狼i产生对应的引力,而普通人工狼之间会产生斥力。步长因子s(i)与搜索的精细程度成正比,与步长成反比,适当的调整步长可以使算法更加灵活。设计步长因子s(i)计算公式如下,
[0102][0103]
式中s0表示人工狼步长因子基础值,ui(i)表示第i次迭代时i狼所处位置的势场函数值,λ表示势场影响因子。该式表示步长因子会受人工狼i所在位置的势力函数值影响。
[0104]
势场函数ui(i)表示形式如下,
[0105][0106]
式中,表示第i次迭代时i狼所处位置的引力势场函数,表示第i次迭代时i狼所处位置斥力势场函数,且d(h,i)表示普通狼i与头狼h的距离,q*(i)表示普通狼之间的距离阈值。
[0107]
引力势场函数的计算方法为:
[0108][0109]
式中,ζ表示引力增益。imwpa设计ζ的计算方式为:
[0110][0111]
式中,kh表示头狼引力系数,表示第i代人工狼i当选头狼次数,d代表算法探索空间的维数。
[0112]
斥力势场函数的表示形式如下,
[0113][0114]
式中,μ表示斥力增益,di(i)表示第i次迭代时i狼所处位置与其最近普通狼之间的距离,大于此距离将不会产生斥力。
[0115]
imwpa通过人工势场法设置步长因子的好处在于,势力函数值与步长因子负相关、与步长正相关,利用不断模仿学习探索过程中较好的头狼的探索规律,从而使寻优过程更加灵活稳定。
[0116]
s42、设置“嚎叫”环节以实现狼群之间的信息共享。
[0117]
具体来说,imwpa作为多狼群算法,需要设置“嚎叫”环节以实现狼群之间的信息共享,增设“嚎叫环节”可以预防探索空间的重复,改善算法全局性探索能力,以及减轻单一狼
群的算法计算复杂度。imwpa定义嚎叫环节狼群执行步骤如下:
[0118]
a.比较得出子狼群wp
ξ
中的预备头狼对应气味浓度
[0119]
b.接收其他子狼群之间的最大气味浓度信息。
[0120]
c.判断此解是否满足算法的全局性要求:若此解与其他已知人工狼探索范围发生重复,则对该函数值进行惩罚(如公式(21)所示),得到最终该狼对应的气味浓度然后转到步骤a;否则,转到步骤d。
[0121]
步骤d:判断此解是否满足约束条件:若不满足约束条件ck、cd,选择次优解,转回步骤d;若满足约束条件,将此狼作为头狼,对应解作为转到步骤e。
[0122]
步骤e:子狼群通过“嚎叫”将此头狼位置x
id
发布到所有狼群之间。
[0123]
嚎叫环节人工头狼h的气味浓度惩罚公式如下,
[0124][0125]
式中kz∈[0,1]代表探索空间重复惩罚系数,表示狼群wp
ξ
中人工狼的个数。多狼群协同搜索结构图如图3所示。
[0126]
另外,作为一种启发式算法,随机性是算法的一大特点,更科学地利用随机性,可以更灵活地筛选人工狼,并促进未来狼群寻优的质量。
[0127]
传统狼群搜索的淘汰更新只根据气味浓度大小采取末位淘汰机制,由于淘汰的数目大小会影响算法效果,imwpa将健全淘汰更新机制,防止因淘汰数目过多导致算法趋于随机搜索的同时,保证了狼群个体的多样性。
[0128]
imwpa从人工狼被淘汰的条件入手,在气味浓度的数值和速率两方面对人工狼提出了一定要求。imwpa拟定人工狼同时满足以下两项要求将被淘汰:
[0129]
数值角度:人工狼的气味浓度数值大小处于较小的r匹:
[0130][0131]
其中,γ为群体更新比例因子,s
num
为狼群中的探狼数;
[0132]
速率角度:人工狼每一次迭代中目标函数增长量:
[0133]
δy

(i)=y

(i)-y

(i-1),(i∈[1,i
max
])处于较小的r匹之内。y

(i)为第i代人工狼i对应的气味浓度值,i
max
为最大迭代次数。
[0134]
淘汰人工狼之后,狼群随机生成与淘汰数量相同的人工狼。
[0135]
狼群在d维空间中搜捕猎物,狼群算法在第d维空间中待寻优的变量取值范围[mind,maxd],d∈[1,d],算法迭代次数为i,子狼群ξ人工狼的气味浓度为y

,头狼气味浓度为人工狼的位置为x
id
,头狼游走次数为t,头狼h与普通狼i间距离为d(h,i),围捕判定距离为d
near
,智能体已搜索到的目标数为imwpa应用智能体内的搜索流程图如图4所示。
[0136]
本发明还公开了一种电子装置,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器通过所述计算机程序运行执行上述任意一项所述的一种多智能体搜索情感目标路径规划方法。
[0137]
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0138]
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
[0139]
在本技术所提供的几个实施例中,应该理解到,所揭露的技术内容,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,可以为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
[0140]
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0141]
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0142]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
[0143]
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1