一种无人机多视角定位方法、装置、设备及存储介质与流程

文档序号:33125536发布日期:2023-02-01 05:03阅读:43来源:国知局
一种无人机多视角定位方法、装置、设备及存储介质与流程

1.本发明涉及无人机定位导航技术领域,特别是涉及一种提升了传统slam算法计算效率,可快速解算出无人机实时位姿定位信息的无人机多视角定位方法、装置、设备及存储介质。


背景技术:

2.对于无人机的定位导航作业,往往依赖于gps和惯性导航系统所构成的组合导航系统,而在室内环境或其它卫星拒止环境下,这种定位导航方法将无法生效。除此方法外,使用激光雷达和视觉相机作为同时定位与建图(slam:simultaneous location and mapping)感知传感器近年来也成为了无人机定位导航的研究热点,其中激光雷达可以获取精确的环境点云信息以完成定位建图功能,视觉相机也可以通过基于图像特征点的多视图几何方法完成定位建图功能。目前无人机定位建图通常采用基于激光雷达和基于视觉相机的方式,此两种方式存在的问题主要有:
3.无人机负载激光雷达进行定位建图时,多线激光雷达可提高定位建图精度但会导致大负载和高功耗的问题,单线激光雷达负载和功耗较低但定位建图精度十分有限。无人机负载视觉相机进行定位建图时,携带单相机时拍摄视野会受到限制,且不能提供有助于地图重建的多视角信息;携带多相机可提供多视角图像,但多视角图像同时参与视觉里程计计算时会大大提高无人机定位建图的计算资源消耗。
4.为此,在具体无人机定位导航作业时,基于负载和功耗的考虑,无人机往往以携带相机进行视觉定位建图方式为主。为了保证无人机可拍摄出大视野场景图像和可用于视觉三维重建的多视角图像,无人机通常携带多个相机,这在离线模式三维重建时,由于无需考虑计算资源而使得多视角图像对于三维场景重建优势十分明显,而对于无人机进行slam实时定位建图时,多视角图像对无人机机载计算平台则带来了一定的考验。
5.采用加速分段测试特征(fast:features from accelerated segment test)和旋转鲁棒二进制独立描述子(brief:binary independent elementary features)的orb-slam2算法是目前主流的一种视觉slam技术方案,该算法支持单目、双目和rgbd深度相机模式,算法框架如图6所示,主要包括跟踪(tracking)、局部建图(local mapping)、闭环检测(loop closing)和建图(mapping)模块:跟踪模块从图像中提取orb特征,根据上一帧图像进行定位姿态估计,然后跟踪已经重建的局部地图以优化位姿;局部建图模块主要完成局部地图构建操作,以完成关键帧的插入,地图点筛选和使用ba局部捆集调整进行定位位姿优化;闭环检测模块主要包括闭环探测和闭环修正操作,以完成闭环融合和建图优化工作;建图模块主要基于前面各模块获取的地图点完成三维地图构建操作。
6.orb-slam2算法基于特征点完成整体算法流程计算,但其在相机仅进行纯旋转时或相机发生高速运动时算法易发生丢帧现象,且基于特征的方法导致重建地图的点云稀疏,不易恢复真实物理环境的结构信息,且需在初始化时保证相机低速运动,同时仅在对准特征和几何纹理丰富的三维物理环境才可取得较好的定位建图效果。


技术实现要素:

7.鉴于上述问题,本发明提供用于克服上述问题或者至少部分地解决上述问题的一种无人机多视角定位方法、装置、设备及存储介质。
8.本发明提供了如下方案:
9.一种无人机多视角定位方法,包括:
10.接收多视角图像采集设备拍摄到的多张第一图像;多张所述第一图像中包括无人机周围环境不同视角下第一时刻的图像信息;
11.分别提取每张所述第一图像的全范围特征获得多组特征点数据;
12.利用所述多视角图像采集设备包含的两两单目相机间构成的双目结构结合多组所述特征点数据确定三维地图参考坐标系;
13.确定多组所述特征点数据的重叠像素区块,对所述重叠像素区块进行划分获得重叠区域的富特征区块;
14.接收所述多视角图像采集设备拍摄到的多张第二图像;多张所述第二图像中包括无人机周围环境不同视角下第二时刻的图像信息;所述第二时刻为所述第一时刻的下一时刻;
15.获取所述富特征区块的富特征区块特征点,在多张所述第二图像中寻找与所述富特征区块特征点匹配的特征点获得匹配特征点对;
16.利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,以解算得到在所述三维地图参考坐标系下所述第一时刻无人机与所述第二时刻无人机的相对位姿变换矩阵;
17.对所述第一时刻非重叠像素区域进行特征点匹配,并基于所述相对位姿变换矩阵作为投影变换矩阵构建重投影残差;
18.将所述重投影残差作为光束调整优化的初始值进行最小二乘迭代优化,得到在所述三维地图参考坐标系下无人机的目标变换位姿。
19.优选地:所述多视角图像采集设备包括多个环绕安装且具有等角度间距以及等距离间距的多个单目相机。
20.优选地:多个所述单目相机中两两相机间的外参均于视觉里程计定位计算前完成标定工作,并基于外参变换得到多个所述单目相机的拍摄图像重叠范围。
21.优选地:所述单目相机包括三个,且两两所述单目相机所拍摄图像的重叠像素区域不低于单个所述单目相机拍摄图像像素总和的五分之一。
22.优选地:所述利用所述多视角图像采集设备包含的两两单目相机间构成的双目结构结合多组所述特征点数据确定三维地图参考坐标系;包括:
23.对多组所述特征点数据进行特征匹配,得到两两图像间的匹配点对;
24.根据多个所述单目相机两两间构成的双目结构,利用双目立体视觉技术对所述匹配特征点对进行特征点深度计算得到三维地图点;
25.利用所述三维地图点创建初始三维地图,将当前无人机位姿赋值为单位矩阵,并设置为三维地图中的参考坐标系原点以便确定所述三维地图参考坐标系。
26.优选地:所述获取所述富特征区块的富特征区块特征点,包括:
27.对多组所述特征点数据进行标记,并对所述重叠像素区块进行四叉树划分,得到
四叉树节点区块,以便获得所述重叠富特征区块特征点。
28.优选地:所述利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,以解算得到在所述三维地图参考坐标系下所述第一时刻无人机与所述第二时刻无人机的相对位姿变换矩阵;包括:
29.利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,求解相邻时刻无人机的旋转变换矩阵和平移变换向量,以解算得所述相对位姿变换矩阵。
30.一种无人机多视角定位装置,所述装置包括:
31.第一图像接收单元,用于接收多视角图像采集设备拍摄到的多张第一图像;多张所述第一图像中包括无人机周围环境不同视角下第一时刻的图像信息;
32.特征点数据提取单元,用于分别提取每张所述第一图像的全范围特征获得多组特征点数据;
33.坐标系确定单元,用于利用所述多视角图像采集设备包含的两两单目相机间构成的双目结构结合多组所述特征点数据确定三维地图参考坐标系;
34.富特征区块确定单元,用于确定多组所述特征点数据的重叠像素区块,对所述重叠像素区块进行划分获得重叠区域的富特征区块;
35.第二图像接收单元,用于接收多视角图像采集设备拍摄到的多张第二图像;多张所述第二图像中包括无人机周围环境不同视角下第二时刻的图像信息;所述第二时刻为所述第一时刻的下一时刻;
36.匹配特征点对获取单元,用于获取所述富特征区块的富特征区块特征点,在多张所述第二图像中寻找与所述富特征区块特征点匹配的特征点获得匹配特征点对;
37.相对位姿变换矩阵获取单元,用于利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,以解算得到在所述三维地图参考坐标系下所述第一时刻无人机与所述第二时刻无人机的相对位姿变换矩阵;
38.重投影残差构建单元,用于对所述第一时刻非重叠像素区域进行特征点匹配,并基于所述相对位姿变换矩阵作为投影变换矩阵构建重投影残差;
39.目标变换位姿获取单元,用于将所述重投影残差作为光束调整优化的初始值进行最小二乘迭代优化,得到在所述三维地图参考坐标系下无人机的目标变换位姿。
40.一种无人机多视角定位设备,所述设备包括处理器以及存储器:
41.所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
42.所述处理器用于根据所述程序代码中的指令执行上述的无人机多视角定位方法。
43.一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行上述的无人机多视角定位方法。
44.根据本发明提供的具体实施例,本发明公开了以下技术效果:
45.本技术实施例提供的一种无人机多视角定位方法、装置、设备及存储介质,使用多台单目相机完成了无人机的位姿里程计实时解算,并重建出了无人机拍摄图像的三维地图模型,避免了单独使用单目相机时无法计算出真实三维环境尺度的问题、使用深度相机时拍摄图像距离受限的问题,和普通双目相机直接进行里程计解算时匹配算法时间复杂度较高的问题。
46.另外,在优选的实施方式下,本技术实施例提供的方法考虑了多台单目相机的像
素区块重叠现象,进行了两步位姿解算得到了精确的无人机定位信息,第一步解算时基于重叠像素的小范围特征匹配快速求解出无人机的初步相对位姿变换矩阵,第二步解算时利用非重叠区域匹配特征点和初步变换矩阵,构建了更多的残差模型以进行重投影误差优化,最终得到了精确的定位解算结果。该方法使无人机可以在室内、室外及其它位置环境下进行定位导航,解决了在无gps信号时的定位困难问题。
47.当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
48.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来说,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
49.图1是本发明实施例提供的一种无人机多视角定位方法的流程图;
50.图2是本发明实施例提供的三视角单目相机布局示意图;
51.图3是本发明实施例提供的三视角基于重叠富特征区块的视觉里程计定位框架图;
52.图4是本发明实施例提供的一种无人机多视角定位装置的示意图;
53.图5是本发明实施例提供的一种无人机多视角定位设备的结构示意图;
54.图6是本发明实施例提供的orb-slam2算法框架图。
具体实施方式
55.下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
56.参见图1,为本发明实施例提供的一种无人机多视角定位方法,如图1所示,该方法可以包括:
57.s101:接收多视角图像采集设备拍摄到的多张第一图像;多张所述第一图像中包括无人机周围环境不同视角下第一时刻的图像信息;本技术实施例提供的多视角图像采集设备可以包含多个相机,本技术实施例可以提供所述多视角图像采集设备包括多个环绕安装且具有等角度间距以及等距离间距的多个单目相机1。
58.具体的,多个所述单目相机1中两两相机间的外参均于视觉里程计定位计算前完成标定工作,并基于外参变换得到多个所述单目相机1的拍摄图像重叠范围。
59.进一步的,所述单目相机1包括三个,且两两所述单目相机1所拍摄图像的重叠像素区域不低于单个所述单目相机1拍摄图像像素总和的五分之一。
60.s102:分别提取每张所述第一图像的全范围特征获得多组特征点数据;
61.s103:利用所述多视角图像采集设备包含的两两单目相机间构成的双目结构结合多组所述特征点数据确定三维地图参考坐标系;本技术实施例通过两两单目相机间构成的双目结构结合多组所述特征点数据可以确定三维地图参考坐标系,在具体实现时,本技术
实施例可以提供对多组所述特征点数据进行特征匹配,得到两两图像间的匹配点对;
62.根据多个所述单目相机两两间构成的双目结构,利用双目立体视觉技术对中所述匹配特征点对进行特征点深度计算得到三维地图点;
63.利用所述三维地图点创建初始三维地图,将当前无人机位姿赋值为单位矩阵,并设置为三维地图中的参考坐标系原点以便确定所述三维地图参考坐标系。
64.s104:确定多组所述特征点数据的重叠像素区块,对所述重叠像素区块进行划分获得重叠区域的富特征区块;
65.s105:接收多视角图像采集设备拍摄到的多张第二图像;多张所述第二图像中包括无人机周围环境不同视角下第二时刻的图像信息;所述第二时刻为所述第一时刻的下一时刻;
66.s106:获取所述富特征区块的富特征区块特征点,在多张所述第二图像中寻找与所述富特征区块特征点匹配的特征点获得匹配特征点对;具体的,对多组所述特征点数据进行标记,并对所述重叠像素区块进行四叉树划分,得到四叉树节点区块,以便获得所述重叠富特征区块特征点。
67.s107:利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,以解算得到在所述三维地图参考坐标系下所述第一时刻无人机与所述第二时刻无人机的相对位姿变换矩阵;具体的,利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,求解相邻时刻无人机的旋转变换矩阵和平移变换向量,以解算得所述相对位姿变换矩阵。
68.s108:对所述第一时刻非重叠像素区域进行特征点匹配,并基于所述相对位姿变换矩阵作为投影变换矩阵构建重投影残差;
69.s109:将所述重投影残差作为光束调整优化的初始值进行最小二乘迭代优化,得到在所述三维地图参考坐标系下无人机的目标变换位姿。
70.本技术实施例提供的无人机多视角定位方法,无人机采用大视野、多视角图像源,以多相机模式作为传感设备,并基于相机安装位和标定技术预先解算多相机的像素重叠区块,基于多视角图像重叠区域中的富特征像素区块进行特征点的快速搜索匹配,可有效的降低传统视觉slam多目相机所带来的高计算资源消耗。
71.同时,对每时刻拍摄的多视角图像的匹配特征点通过立体视觉技术恢复图像点的三维深度,并对相邻时刻多视角图像的匹配特征点通过几何重投影误差进行集束调整优化,进一步提升了传统slam算法计算效率问题,可快速解算出无人机实时位姿定位信息。
72.下面以设置三个单目相机为例对本技术实施例提供的方法进行详细说明。
73.如图2所示,通过将三个单目相机环绕与无人机固连,以等角度间隔和等距离间隔的安装方式形成三视角视觉图像采集设备,每当视觉图像采集设备拍摄获取新的三视角图像后,便通过本技术实施例提供的方法对三视角图像进行视觉里程计计算处理,以快速计算出鲁棒的视觉位姿,帮助无人机完成视觉定位建图功能。
74.所需要的硬件设备由三个固连的单目相机环绕组成,环绕安装时保持等角度间隔和等距离间隔。三相机中两两相机间的外参均于视觉里程计定位计算前完成标定工作,并基于外参变换,得到三个单目相机的拍摄图像重叠范围。具体的,固连相机的环绕安装位应保证等角度间隔和等距离间隔,且两两相机所拍摄图像的重叠像素区域需保证不低于单个相机拍摄图像像素总和的五分之一。三视角视觉图像采集设备的相机参矩阵均于视觉里程
计定位计算前完成标定工作,并基于外参变换解算出三个单目相机拍摄图像的像素重叠范围。相机外参和重叠范围将作为系统参数输入至后续视觉里程计定位解算中。
75.视觉里程计定位计算时可以分为视觉初始化阶段和视觉跟踪阶段,如图3所示,包括以下步骤:
76.获取三视角单目图像数据,图像中含有无人机周围环境不同视角下的图像信息;
77.对输入的三视角图像进行全范围特征提取,得到三组特征点数据;
78.基于三视角视觉图像采集设备的像素重叠范围,对得到的三组特征点中属于重叠范围的特征点进行标记,并对重叠像素区块进行四叉树划分,得到特征点较多的四叉树节点区块,即得到重叠富特征区块特征点;判断当前输入的三视角图像数据是否是第一次输入,如果当前为第一次输入的三视角图像数据,处理过程进入初始化阶段。如果不是第一次输入的图像数据,则处理过程进入视觉里程计跟踪阶段。可以理解的是,本技术实施例提供的获取到第一图像时,即可认为是进行初始化阶段,当然该初始化阶段也可以采用单独获取三张单目图像的方式实施。
79.首次输入三视角图像时进入视觉初始化阶段,本阶段首先对三张单目图像进行全范围特征提取,并将重叠区域特征进行四叉树划分,以得到重叠区域的富特征区块特征点。基于两两相机所构成的双目结构,本阶段将进一步地利用双目立体视觉技术恢复出特征点的三维空间深度信息,得到初始的稀疏三维地图,并将当前图像帧位姿赋值为单位矩阵,以及设置为三维地图参考坐标系原点。
80.初始化阶段主要用于获取初始三维地图点数据和三维地图参考坐标系,具体步骤如下:
81.对计算所得的三组特征点数据进行特征匹配,得到两两图像间的匹配点对;
82.根据三个单目相机两两间构成的双目结构,利用双目立体视觉技术对匹配特征点对进行特征点深度计算,得到三维地图点;
83.基于所得三维地图点,创建初始三维地图,将当前无人机位姿赋值为单位矩阵,并设置为三维地图中的参考坐标系原点。
84.非首次输入的三视角图像将进入视觉跟踪阶段进行处理,本阶段首先对初始化阶段处理时所标记的重叠区域富特征区块特征点进行特征匹配,基于匹配特征点进行n点透视(pnp:perspective-n-points)光束调整优化,以初步求解相邻时刻无人机的旋转变换矩阵r

和平移变换向量t

,形成初步位姿变换矩阵t


85.然后基于t

将上一时刻三视角图像中的非重叠区域图像特征点投影至当前时刻图像中,并限定搜索范围完成特征匹配操作,得到更多匹配特征点以构成重投影误差方程。最后将t

作为初始值参与集束调整最小二乘优化,迭代优化出相邻时刻无人机的精确相对位姿变化t。视觉里程计跟踪阶段用于无人机飞行过程中,不断通过输入的三视角图像解算得到当前无人机的实时定位信息,
86.具体步骤如下:
87.对上一时刻的三视角图像中像素重叠区域中的富特征区块特征点,在当前时刻拍摄的三视角图像中寻找匹配特征点;
88.基于所得匹配特征点对,构建几何重投影误差,并进行光束调整优化,以解算得到上一时刻无人机与当前时刻无人机的相对位姿变换矩阵t


89.对上一时刻非重叠像素区域进行特征点匹配,并基于中计算所得的t

作为投影变换矩阵构建重投影残差,同时作为pnp光束调整优化的初始值进行最小二乘迭代优化,得到精确的无人机变换位姿t。
90.总之,本技术提供的无人机多视角定位方法,使用多台单目相机完成了无人机的位姿里程计实时解算,并重建出了无人机拍摄图像的三维地图模型,避免了单独使用单目相机时无法计算出真实三维环境尺度的问题、使用深度相机时拍摄图像距离受限的问题,和普通双目相机直接进行里程计解算时匹配算法时间复杂度较高的问题。
91.同时,本技术实施例提供的方法考虑了多台单目相机的像素区块重叠现象,进行了两步位姿解算得到了精确的无人机定位信息,第一步解算时基于重叠像素的小范围特征匹配快速求解出无人机的初步相对位姿变换矩阵,第二步解算时利用非重叠区域匹配特征点和初步变换矩阵,构建了更多的残差模型以进行重投影误差优化,最终得到了精确的定位解算结果。该方法使无人机可以在室内、室外及其它位置环境下进行定位导航,解决了在无gps信号时的定位困难问题。
92.参见图4,本技术实施例还可以提供一种无人机多视角定位装置,如图4所示,该装置可以包括:
93.第一图像接收单元401,用于接收多视角图像采集设备拍摄到的多张第一图像;多张所述第一图像中包括无人机周围环境不同视角下第一时刻的图像信息;
94.特征点数据提取单元402,用于分别提取每张所述第一图像的全范围特征获得多组特征点数据;
95.坐标系确定单元403,用于利用所述多视角图像采集设备包含的两两单目相机间构成的双目结构结合多组所述特征点数据确定三维地图参考坐标系;
96.富特征区块确定单元404,用于确定多组所述特征点数据的重叠像素区块,对所述重叠像素区块进行划分获得重叠区域的富特征区块;
97.第二图像接收单元405,用于接收多视角图像采集设备拍摄到的多张第二图像;多张所述第二图像中包括无人机周围环境不同视角下第二时刻的图像信息;所述第二时刻为所述第一时刻的下一时刻;
98.匹配特征点对获取单元406,用于获取所述富特征区块的富特征区块特征点,在多张所述第二图像中寻找与所述富特征区块特征点匹配的特征点获得匹配特征点对;
99.相对位姿变换矩阵获取单元407,用于利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,以解算得到在所述三维地图参考坐标系下所述第一时刻无人机与所述第二时刻无人机的相对位姿变换矩阵;
100.重投影残差构建单元408,用于对所述第一时刻非重叠像素区域进行特征点匹配,并基于所述相对位姿变换矩阵作为投影变换矩阵构建重投影残差;
101.目标变换位姿获取单元409,用于将所述重投影残差作为光束调整优化的初始值进行最小二乘迭代优化,得到在所述三维地图参考坐标系下无人机的目标变换位姿。
102.本技术实施例还可以提供一种无人机多视角定位设备,所述设备包括处理器以及存储器:
103.所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
104.所述处理器用于根据所述程序代码中的指令执行上述的无人机多视角定位方法
的步骤。
105.如图5所示,本技术实施例提供的一种无人机多视角定位设备,该设备可以包括:处理器10、存储器11、通信接口12和通信总线13。处理器10、存储器11、通信接口12均通过通信总线13完成相互间的通信。
106.在本技术实施例中,处理器10可以为中央处理器(central processing unit,cpu)、特定应用集成电路、数字信号处理器、现场可编程门阵列或者其他可编程逻辑器件等。
107.处理器10可以调用存储器11中存储的程序,具体的,处理器10可以执行无人机多视角定位方法的实施例中的操作。
108.存储器11中用于存放一个或者一个以上程序,程序可以包括程序代码,程序代码包括计算机操作指令,在本技术实施例中,存储器11中至少存储有用于实现以下功能的程序:
109.接收多视角图像采集设备拍摄到的多张第一图像;多张所述第一图像中包括无人机周围环境不同视角下第一时刻的图像信息;
110.分别提取每张所述第一图像的全范围特征获得多组特征点数据;
111.利用所述多视角图像采集设备包含的两两单目相机间构成的双目结构结合多组所述特征点数据确定三维地图参考坐标系;
112.确定多组所述特征点数据的重叠像素区块,对所述重叠像素区块进行划分获得重叠区域的富特征区块;
113.接收多视角图像采集设备拍摄到的多张第二图像;多张所述第二图像中包括无人机周围环境不同视角下第二时刻的图像信息;所述第二时刻为所述第一时刻的下一时刻;
114.获取所述富特征区块的富特征区块特征点,在多张所述第二图像中寻找与所述富特征区块特征点匹配的特征点获得匹配特征点对;
115.利用所述匹配特征点对构建几何重投影误差并进行光束调整优化,以解算得到在所述三维地图参考坐标系下所述第一时刻无人机与所述第二时刻无人机的相对位姿变换矩阵;
116.对所述第一时刻非重叠像素区域进行特征点匹配,并基于所述相对位姿变换矩阵作为投影变换矩阵构建重投影残差;
117.将所述重投影残差作为光束调整优化的初始值进行最小二乘迭代优化,得到在所述三维地图参考坐标系下无人机的目标变换位姿。
118.在一种可能的实现方式中,存储器11可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统,以及至少一个功能(比如文件创建功能、数据读写功能)所需的应用程序等;存储数据区可存储使用过程中所创建的数据,如初始化数据等。
119.此外,存储器11可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件或其他易失性固态存储器件。
120.通信接口12可以为通信模块的接口,用于与其他设备或者系统连接。
121.当然,需要说明的是,图5所示的结构并不构成对本技术实施例中无人机多视角定位设备的限定,在实际应用中无人机多视角定位设备可以包括比图5所示的更多或更少的部件,或者组合某些部件。
122.本技术实施例还可以提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行上述的无人机多视角定位方法的步骤。
123.需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
124.通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本技术可借助软件加上必需的通用硬件平台的方式来实现。基于这样的理解,本技术的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如rom/ram、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本技术各个实施例或者实施例的某些部分所述的方法。
125.本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
126.以上所述仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1