本发明属于计算机视觉与无人机传感器技术领域,具体涉及一种基于无人机单目视觉的地面目标定位方法和系统。
背景技术:
近年来无人机(unmannedaerialvehicle,uav)在各种场景中都扮演着重要的角色,比如无人机搜救与侦察、环境监控、交通管理等。在这些应用场景中,无人机的一个非常重要的任务就是检测和跟踪感兴趣的目标。比如搜救任务中,无人机的任务是盘旋在受灾区域上空,准确检测到需要搜救的受灾人员并提供人员方位,方便救援人员实施救援。在无人机检测并跟踪目标的任务中,对目标的真实坐标定位是必不可少的。在目标定位方面,研究人员做了大量的研究工作,方法涉及基于视觉的定位、无源雷达定位、声纳系统定位和红外定位等,每种定位方法都依赖于特定的传感器支持。在这些定位方法中,基于视觉的定位不仅简单易用,而且视觉相机的价格也更加亲民。因此随着计算机视觉技术的飞速发展,大量的视觉定位系统应运而生并在各个领域得到了广泛的应用。
基于视觉的目标定位是计算机视觉的研究热点之一,因为它有十分重要的实际应用价值。目标定位的任务是在确定目标在图像中的位置的前提下,准确估计出目标在真实世界中与无人机的相对位置坐标。其中目标在图像中的位置可由人工手动框出、目标检测算法和目标跟踪算法得到的目标边界框来获取。一个无人机上搭载单个相机的定位被称作单目视觉定位。目前无人机单目视觉定位分为单无人机定位和多无人机定位两个分支。单机定位需以地面为水平面,通过全球定位系统(globalpositioningsystem,gps)传感器测量无人机与地面之间的相对高度,然后无人机根据自身飞行高度和目标在相机图像中的位置来完成目标定位。多机定位是使用多架无人机同时持续观测同一个目标,每架无人机都可以使用单机定位算法获得一个目标的定位,随后将每架无人机获取的目标定位坐标使用融合算法进行融合,来得到最终的目标定位。多机定位实际上是多个单机定位的有效融合,所以其基础还是单机定位。目前的单机单目视觉定位算法最有效的方法是使用相机标定+空间维度变换,利用事先标定好的相机内部参数和外部参数,对目标图像进行2d到3d空间的变换,完成地面目标的空间坐标定位。这种方法依赖于精确的相机参数标定,如果标定不准确,会使定位结果出现较大误差。标定需要特定的设备和环境,并且容易受到光照、棋盘格是否标准等因素的影响,所以在一些标定条件不足的场景中难以实施。如何在标定条件不足的场景下进行地面目标的精确定位,已经成为一个亟需解决的问题。
在无人机飞行过程中,无人机运动会导致其机载相机的位姿角度发生变化,从而改变了目标定位中2d到3d的坐标映射关系,使定位出错。这样的错误在目标跟踪定位过程中是致命的,很可能直接影响到无人机跟踪目标的飞行航线,使无人机跟丢目标。所以无人机运动时如何保证持续准确的目标定位,是一个需要解决的问题.
现有的无人机单目视觉目标定位算法还不能有效满足在标定条件不足和无人机飞行中持续定位的需要,研究一种持续准确、且不依赖于精确相机标定的定位算法尤为重要。
技术实现要素:
为克服上述现有技术的不足,本发明提出一种基于无人机单目视觉的地面目标定位方法,包括:
获取地面目标在每帧无人机单目视觉图像中的位置;
基于所述图像中的位置,采用视场角计算地面目标的真实坐标;
将所述地面目标的真实坐标叠加无人机的位姿信息,得到无人机飞行的过程中地面目标的定位信息。
优选的,所述获取地面目标在每帧无人机单目视觉图像中的位置,包括:
当地面目标首次出现在无人机单目视觉图像的图像帧中时,框出包含地面目标的初始目标框;
根据所述初始目标框初始化目标跟踪算法,并采用所述目标跟踪算法对地面目标首次出现后的每一帧图像进行目标跟踪,实时框出地面目标,得到地面目标在每帧无人机单目视觉图像中的位置。
优选的,所述基于所述图像中的位置,采用视场角计算地面目标的真实坐标,包括:
以机载相机的位置为世界坐标系原点,建立世界坐标系;
计算图像帧上地面目标与图像中心点间的图像坐标偏移量;
根据所述图像坐标偏移量并结合视场角,计算地面目标在图像帧上的位置点在世界坐标系上的坐标;
根据所述位置点在世界坐标系上的坐标,计算地面目标的真实坐标。
优选的,所述根据所图像坐标偏移量并结合视场角,计算地面目标在图像帧上的位置点在世界坐标系上的坐标,包括:
根据图像中心点到图像边界的图像上距离,并结合视场角,计算图像中心点到图像边界的真实世界上的距离;
根据图像中心点到图像边界的图像上距离、真实世界上的距离以及所述图像坐标偏移量,计算地面目标在图像帧上的位置点与图像中心点间在真实世界的坐标偏移量;
以所述真实世界的坐标偏移量并结合焦距,得到不考虑相机旋转和无人机飞行高度的所述位置点在真实世界中的初始坐标;
将所述初始坐标依次叠加相机的旋转矩阵和无人机飞行高度,得到地面目标在图像帧上的位置点在世界坐标系上的坐标。
优选的,所述图像中心点到图像边界的真实世界上的距离的计算式如下:
其中,lw/2表示水平方向上图像中心点到图像边界的真实世界上的距离,lh/2表示垂直方向上图像中心点到图像边界的真实世界上的距离,fc表示相机的焦距,fhor表示相机的水平视场角,fver表示相机的垂直视场角。
优选的,所述真实世界的坐标偏移量的计算式如下:
式中,lδw表示水平方向上真实世界的坐标偏移量,δw表示水平方向上的图像坐标偏移量,w表示图像宽度,lδh表示垂直方向上真实世界的坐标偏移量,δh表示水平垂直方向上的图像坐标偏移量,h表示图像高度。
优选的,所述根据所述位置点在世界坐标系上的坐标,计算地面目标的真实坐标,包括:
根据所述位置点在世界坐标系上的坐标,计算相机坐标点与所述位置点在真实世界中的连线函数方程;
以地面高度为0,采用所述连线函数方程消除焦距,计算地面目标的真实坐标。
优选的,所述将所述地面目标的真实坐标叠加无人机的位姿信息,得到无人机飞行的过程中地面目标的定位信息,包括:
通过惯性测量单元获取无人机位姿信息,并基于所述位姿信息计算无人机旋转矩阵;
将所述无人机旋转矩阵叠加到所述相机的旋转矩阵上,通过计算得到无人机飞行的过程中地面目标的定位信息。
优选的,所述基于所述图像中的位置,采用视场角计算地面目标的真实坐标之后,且将所述地面目标的真实坐标叠加无人机的位姿信息之前,还包括:
采用卡尔曼滤波的方法对无人机位姿信息进行滤波去噪。
基于同一发明构思,本申请还提供了一种基于无人机单目视觉的地面目标定位系统,其特征在于,包括:位置获取模块、坐标计算模块和定位模块;
所述位置获取模块,用于获取地面目标在每帧无人机单目视觉图像中的位置;
所述坐标计算模块,用于基于所述图像中的位置,采用视场角计算地面目标的真实坐标;
所述定位模块,用于将所述地面目标的真实坐标叠加无人机的位姿信息,得到无人机飞行的过程中地面目标的定位信息。
与最接近的现有技术相比,本发明具有的有益效果如下:
本发明提供了一种基于无人机单目视觉的地面目标定位方法和系统,包括:获取地面目标在每帧无人机单目视觉图像中的位置;基于图像中的位置,采用视场角计算地面目标的真实坐标;将地面目标的真实坐标叠加无人机的位姿信息,得到无人机飞行的过程中地面目标的定位信息。针对当前基于无人机机载相机的地面目标定位都需要使用已经标定好的相机焦距参数来进行计算,如果相机无法准确的标定,定位结果会产生很大的误差。本发明可以针对标定条件不足的场景进行问题解决,不使用需要标定的相机焦距,而是采用相机视场角参数进行定位计算,只需要获知相机的额定视场角即可,无需事先标定。这样可以提高定位算法在条件短缺的情况下的可用性和准确性。
附图说明
图1为本发明提供的一种基于无人机单目视觉的地面目标定位方法流程示意图;
图2为本发明提供的一种基于无人机单目视觉的地面目标定位方法总体流程图;
图3为本发明提供的定位器框架图;
图4为本发明提供的一种基于无人机单目视觉的地面目标定位基本结构示意图;
图5为本发明提供的一种基于无人机单目视觉的地面目标定位详细结构示意图。
具体实施方式
下面结合附图对本发明的具体实施方式做进一步的详细说明。
本发明要解决的技术问题是提供一种基于相机视场角(fieldofview,fov)的无人机单目视觉的地面目标定位方法,该方法不依赖于精确的相机焦距标定,可以不进行严格的相机标定,实现对视觉图像中的目标的真实物理坐标定位,提高定位方法的实时性和易用性。同时将惯性测量单元(inertialmeasurementunit,imu),测量的位姿数据应用到定位算法中,使得上述方法在无人机发生位姿变化时也能进行精确目标定位。
实施例1:
本发明提供的一种基于无人机单目视觉的地面目标定位方法流程示意图如图1所示,包括:
s1:获取地面目标在每帧无人机单目视觉图像中的位置;
s2:基于图像中的位置,采用视场角计算地面目标的真实坐标;
s3:将地面目标的真实坐标叠加无人机的位姿信息,得到无人机飞行的过程中地面目标的定位信息。
本发明的具体技术方案如图2所示,包括:
第一步,实现基于相机的视场角(fov)地面目标定位算法,在无人机飞行过程中计算地面目标的真实坐标。
具体方法为:
1.1以机载相机的位置为世界坐标系原点o(0,0,0),建立世界坐标系(x,y,z)。
1.2机载相机由万向节来控制,可以自由旋转,计算每一时刻相机相对于初始角度的旋转角度,具体方法如下:
1.2.1实时获取机载相机相对于初始角度的旋转角度,这个旋转角度可由连接机载相机与无人机的万向节来获取到。旋转角度以欧拉角的形式来表示,即翻滚角(roll)、俯仰角(pitch)和偏航角(yaw),分别使用φ,β,γ来表示roll,pitch和yaw。
1.2.2根据φ,β,γ这三个旋转角度,使用旋转矩阵的计算方法来求出对应的三个旋转矩阵rφ,rβ,rγ,计算公式为公式(1)–公式(3)
由此可计算出合旋转矩阵rφβγ=rγrβrφ。
1.3计算目标的位置坐标即位置点t与图像中心点c的图像坐标偏移量(δw,δh)。t的坐标值可由包含地面目标的目标框来计算,计算公式为公式(4)
式中,ut为t的水平坐标,vt为t的垂直坐标,rx为目标框左上角顶点在图像u方向即水平方向的坐标,ry为目标框左上角顶点在图像v方向即垂直方向的坐标,rw为目标框的长度,rh为目标框的宽度。
c的坐标值为
1.4已知图像中心点c到图像边界的图像坐标系距离
其中fc表示相机的焦距(以米为单位),fhor和fver分别表示相机的水平和垂直视场角。其中,水平和垂直视场角为相机的额定参数。
1.5计算目标在图像中的位置t点在真实世界坐标系中的坐标,具体方法如下:
1.5.1根据c的图像坐标系距离
1.5.2图像平面到相机位置的真实距离即为焦距fc,则可得t点在真实世界中的坐标
1.6计算在相机旋转后,目标在图像中的位置t点在真实世界坐标系中的坐标,即将相机的旋转矩阵rφ,rβ,rγ叠加到t点初始的真实世界坐标tw上,计算公式为公式(6)
1.7将无人机飞行高度应用到
其中hu为无人机真实飞行高度,可由gps传感器获得。
1.8定义地面平面为z=0,计算地面目标的真实坐标tr,具体方法如下:
1.8.1计算相机坐标点与目标在图像中的成像点在真实世界中的连线函数方程,当无人机起飞后,相机真实世界坐标为(0,0,hu),则根据直线两点式可得连线方程为:
1.8.2将z=0代入连线方程,即可得地面目标真实坐标
第二步,实现在目标定位中叠加无人机的位姿信息,相机受到万向节的控制发生旋转,可以得到旋转矩阵rφβγ。在无人机飞行过程中,位姿不断变化的情况下,可由imu获取位姿信息,并解算出无人机旋转矩阵ru。ru叠加到相机的旋转矩阵上,实现无人机飞行的过程中,也能准确跟踪目标。
具体方法如下:
2.1通过imu获取无人机位姿信息,并计算无人机旋转矩阵ru。
2.1.1imu获取到的数据是四元数的格式,四元数是一种超复数,由一个实部合三个虚部组成。单位四元数可以表示三维平面的一个旋转操作。定义ur为三维空间的一个旋转轴,则imu获取到的四元数信息可定义为公式(8)
其中α为绕ur旋转的旋转角度。
2.1.2另一个四元数
其中
2.2将无人机旋转矩阵ru叠加到目标定位即地面目标的真实坐标中,无人机的旋转和相机万向节的旋转可以看作是一种叠加关系:即相机先进行万向节的旋转,再在万向节旋转的基础上执行无人机的旋转,因此相机整体旋转矩阵可定义为ru_φβγ=rurφβγ。使用ru_φβγ替换第二步中的rφβγ,实现定位过程中无人机位姿矩阵的叠加。
将无人机的运动位姿数据实时地叠加到目标定位算法中,实现了无论无人机如何运动,角度如何变化,都能够准确定位地面目标。这样真正实现了全时刻的定位。
以第一步到第二步的方法为基础建立的定位器框架图如图3所示,图中的rpy角即视场角。
第三步,基于imu观测到的无人机角速度信息,使用卡尔曼滤波器对无人机位姿信息进行滤波去噪。
具体方法为:
3.1定义四元数
3.2求解旋转角α关于时间t的导数,
3.3求解
3.3.1将3.1中的公式提取出一个
3.3.2在3.3.1中的
3.3.3将上式进行泰勒展开,并提取前两项,可得公式(10)
3.4利用imu对角速度的采样数据计算瞬时角速度,并构建卡尔曼滤波器对位姿信息进行去噪。
3.4.1定义fg为imu的角速度采样频率,则有
3.4.2根据3.3.3的更新公式以及所有已知量,构建卡尔曼滤波器完成位姿的去噪。结束。
在进行目标定位的实际过程中,可以在持续定位过程中,第二步之后执行第三步,也可以在第二步获取四元数之后,且将地面目标的真实坐标叠加无人机的位姿信息前,执行步骤三。
采用了卡尔曼滤波的方法对观测数据进行滤波去噪,充分利用了imu的观测角速度对无人机位姿进行预测并去噪。这样实现了最终定位结果的平稳,并使定位结果更加准确。
实施例2:
下面给出另外一个基于无人机单目视觉的地面目标定位方法的实施例。
该实施例包括以下步骤:
第a1步,获取目标在每帧图像中的位置。在无人机起飞、相机开启并且地面目标就位后,采用手工框出目标或目标检测算法来初始化目标位置,并用目标跟踪的方法来不断获取目标在图像中的位置。手工框出目标即在相机拍摄到目标后,在包含目标的这帧图像上使用手工画矩形框的方式将目标框出,初始化目标在图像中的位置;使用目标检测算法即当相机拍摄到目标后,检测算法会自动检测到目标并使用矩形框框出目标。随后使用初始目标框以及初始帧来初始化目标跟踪算法,使跟踪算法在随后的每帧中能够跟踪并框出目标。
具体方法为:
a1.1无人机起飞并开启摄像头对地进行拍摄,将摄像头捕获到的每一帧图像传回地面站,由地面站进行处理。
a1.2当目标出现在某帧图像i中,使用手工或目标检测的方法框出图像i中的目标,方法是:
a1.2.1手工的方法即使用opencv等图像处理框架编写框取程序,由工程师执行该程序,在图像i上使用鼠标画出目标框。目标框包含四个数值{rx,ry,rw,rh},令(u,v)表示图像坐标系的两个坐标轴,则rx和ry分别表示目标框左上角顶点在图像i的u方向和v方向上的坐标,rw和rh分别表示目标框的长和宽。
a1.2.2目标检测的方法即调用目标检测算法处理图像i,直接得到目标框。常用的目标检测算法有:yolo、faster-rcnn、ssd等。得到的目标框数据形式同a1.2.1中所述。
a1.3使用图像i的目标框数据初始化目标跟踪算法,然后使用跟踪算法对随后的每一帧图像进行目标跟踪,实时框出目标。常用的目标跟踪算法有:kcf、tld、siamfc等。
第a2步,实现基于相机的视场角(fov)地面目标定位算法,在无人机飞行过程中计算地面目标的真实坐标。
具体方法为:
a2.1以机载相机的位置为世界坐标系原点o(0,0,0),建立世界坐标系(x,y,z)。
a2.2机载相机由万向节来控制,可以自由旋转,计算每一时刻相机相对于初始角度的旋转角度,具体方法如下:
a2.2.1实时获取机载相机相对于初始角度的旋转角度,这个旋转角度可由连接机载相机与无人机的万向节来获取到。旋转角度以欧拉角的形式来表示,即翻滚角(roll)、俯仰角(pitch)和偏航角(yaw),分别使用φ,β,γ来表示roll,pitch和yaw。
a2.2.2根据φ,β,γ这三个旋转角度,使用旋转矩阵的计算方法来求出对应的三个旋转矩阵rφ,rβ,rγ。
a2.3计算目标的位置坐标t与图像中心点c的坐标偏移量(δw,δh)。t的坐标值可由a1.2.1中得到的目标框来计算,计算公式为
a2.4已知图像中心点c到图像边界的图像坐标系距离
a2.5计算目标在图像中的位置t点在真实世界坐标系中的坐标,具体方法如下:
a2.5.1根据图像坐标系距离
a2.5.2图像平面到相机位置的真实距离即为焦距fc,则根据2.5.2可解得t点在真实世界中的坐标
a2.6计算在相机旋转后,目标在图像中的位置t点在真实世界坐标系中的坐标,即将相机的旋转矩阵rφ,rβ,rγ叠加到t点初始的真实世界坐标tw上,计算公式为:
a2.7将无人机飞行高度计算到
a2.8定义地面平面为z=0,计算地面目标的真实坐标tr,具体方法如下:
a2.8.1计算相机坐标点与目标在图像中的成像点在真实世界中的连线函数方程,当无人机起飞后,相机真实世界坐标为(0,0,hu),则根据直线两点式可得连线方程为:
a2.8.2将z=0代入连线方程,即可得地面目标真实坐标
第a3步,实现在目标定位中叠加无人机的位姿信息,相机受到万向节的控制发生旋转,可以得到旋转矩阵rφβγ。在无人机飞行过程中,位姿不断变化的情况下,可由imu获取位姿信息,并解算出无人机旋转矩阵ru。ru叠加到相机的旋转矩阵上,实现无人机飞行的过程中,也能准确跟踪目标。
具体方法如下:
a3.1通过imu获取无人机位姿信息,并计算无人机旋转矩阵ru。
a3.1.1定义imu获取到的四元数信息为
a3.1.2另一个四元数
a3.2将无人机旋转矩阵ru叠加到目标定位中,无人机的旋转和相机万向节的旋转可以看作是一种叠加关系:即相机先进行万向节的旋转,再在万向节旋转的基础上执行无人机的旋转,因此相机整体旋转矩阵可定义为ru_φβγ=rurφβγ。使用ru_φβγ替换第a2步中的rφβγ,实现定位过程中无人机位姿矩阵的叠加。
第a4步,基于imu观测到的无人机角速度信息,使用卡尔曼滤波器对无人机位姿信息进行滤波去噪。
具体方法为:
a4.1定义四元数
a4.2求解旋转角α关于时间t的导数,
a4.3求解
a4.3.1将a4.1中的公式提取出一个
a4.3.2在a4.3.1中的
a4.3.3将上式进行泰勒展开,并提取前两项,可得:
a4.4利用imu对角速度的采样数据计算瞬时角速度,并构建kalman滤波器对位姿信息进行去噪。
a4.4.1定义fg为imu的角速度采样频率,则有
a4.4.2根据a4.3.3的更新公式以及所有已知量,构建kalman滤波器完成无人机位姿信息的去噪。结束。
实施例3:
基于同一发明构思,本发明还提供了一种基于无人机单目视觉的地面目标定位系统,由于这些设备解决技术问题的原理与基于无人机单目视觉的地面目标定位方法相似,重复之处不再赘述。
该系统基本结构如图4所示,包括:位置获取模块、坐标计算模块和定位模块;
位置获取模块,用于获取地面目标在每帧无人机单目视觉图像中的位置;
坐标计算模块,用于基于图像中的位置,采用视场角计算地面目标的真实坐标;
定位模块,用于将地面目标的真实坐标叠加无人机的位姿信息,得到无人机飞行的过程中地面目标的定位信息。
基于无人机单目视觉的地面目标定位系统详细结构如图5所示。
其中,位置获取模块包括:初始目标框单元和跟踪单元;
初始目标框单元,用于当地面目标首次出现在无人机单目视觉图像的图像帧中时,框出包含地面目标的初始目标框;
跟踪单元,用于根据初始目标框初始化目标跟踪算法,并采用目标跟踪算法对地面目标首次出现后的每一帧图像进行目标跟踪,实时框出地面目标,得到地面目标在每帧无人机单目视觉图像中的位置。
其中,坐标计算模块包括:坐标系单元、图像坐标偏移量单元、位置点坐标单元和目标坐标单元;
坐标系单元,用于以机载相机的位置为世界坐标系原点,建立世界坐标系;
图像坐标偏移量单元,用于计算图像帧上地面目标与图像中心点间的图像坐标偏移量;
位置点坐标单元,用于根据图像坐标偏移量并结合视场角,计算地面目标在图像帧上的位置点在世界坐标系上的坐标;
目标坐标单元,用于根据位置点在世界坐标系上的坐标,计算地面目标的真实坐标。
其中,位置点坐标单元包括:中心点距离子单元、坐标偏移量子单元、初始坐标子单元和位置点坐标子单元;
中心点距离子单元,用于根据图像中心点到图像边界的图像上距离,并结合视场角,计算图像中心点到图像边界的真实世界上的距离;
坐标偏移量子单元,用于根据图像中心点到图像边界的图像上距离、真实世界上的距离以及图像坐标偏移量,计算地面目标在图像帧上的位置点与图像中心点间在真实世界的坐标偏移量;
初始坐标子单元,用于以真实世界的坐标偏移量并结合焦距,得到不考虑相机旋转和无人机飞行高度的位置点在真实世界中的初始坐标;
位置点坐标子单元,用于将初始坐标依次叠加相机的旋转矩阵和无人机飞行高度,得到地面目标在图像帧上的位置点在世界坐标系上的坐标。
其中,目标坐标单元包括:连线函数子单元和真实坐标子单元;
连线函数子单元,用于根据位置点在世界坐标系上的坐标,计算相机坐标点与位置点在真实世界中的连线函数方程;
真实坐标子单元,用于以地面高度为0,采用连线函数方程消除焦距,计算地面目标的真实坐标。
其中,定位模块包括:无人机旋转矩阵单元和定位单元;
无人机旋转矩阵单元,用于通过惯性测量单元获取无人机位姿信息,并基于位姿信息计算无人机旋转矩阵;
定位单元,用于将无人机旋转矩阵叠加到相机的旋转矩阵上,通过计算得到无人机飞行的过程中地面目标的定位信息。
其中,基于无人机单目视觉的地面目标定位系统还包括滤波模块;
滤波模块,用于采用卡尔曼滤波的方法对无人机位姿信息进行滤波去噪。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用于说明本申请的技术方案而非对其保护范围的限制,尽管参照上述实施例对本申请进行了详细的说明,所属领域的普通技术人员应当理解:本领域技术人员阅读本申请后依然可对申请的具体实施方式进行种种变更、修改或者等同替换,但这些变更、修改或者等同替换,均在申请待批的权利要求保护范围之内。