一种无人机航拍视频图像智能检测方法与流程

文档序号:32435786发布日期:2022-12-06 18:48阅读:51来源:国知局
一种无人机航拍视频图像智能检测方法与流程

1.本发明涉及安全防范、智能交通、搜索救援等视频监控领域,具体地说,是一种应用于低空小型无人机航拍视频图像智能检测方法。


背景技术:

2.无人机飞行高度低、重量轻、搭载小像幅数码相机、配有高分辨率的摄像头,能够捕捉高质量的图像,用于各种分析。因此无人驾驶飞行器(uav)在许多领域得到越来越广泛的应用。通过无人机航拍视频,可以方便地获取更多的静态和动态信息,掌握现场情况。低慢小无人机航拍、农业、娱乐,被用于农业,建筑,公共安全和安全等领域,同时也被其他领域迅速采用。随着无人机的普及,地表形态变化频繁,实时测绘及社会各行各业对高分辨率遥感影像的迫切需求,低空无人机遥感得到了迅速发展。低空无人机遥感具有运行成本低、机动灵活、可进行云下低空飞行、获取遥感影像分辨率高等特点,作为卫星遥感和载人飞机航空遥感的有力补充,在获取小区域高分辨率遥感影像、提供灾害应急测绘保障和地形困难地区遥感影像方面产生良好效果。低空无人机航空摄影测量是继卫星遥感、大飞机遥感之后发展起来的一项新型航空遥感技术。在无人机航拍中,影像质量是十分重要的,同时影响影像质量的因素也有很多,为了获取更好的影像,我们需要掌握一些航拍方法。伴随着无人机相关技术的成熟,基于无人机的低空航拍因其成本低,起降灵活,受气象条件影响小(可在云层下作业),已逐渐成为传统航空拍摄和卫星遥感获取图像信息的重要补充手段,在国家重大自然灾害应急、地理国情监测、土地管理和城市建设规划等领域得到越来越广泛的应用。特别地,在特定区域进行目标跟踪、目标搜索、地物状态监控等应用中,通常需要对该区域范围进行频繁、持续、精确的低空监视,小型无人机视频航拍由于拍摄成本低、具备低空拍摄能力、对小目标成像分辨率高等优点,能有效完成监视视频采集任务。低空无人机摄影测量系统通常由地面系统、飞行控制系统、数据处统和航拍系统组成,地面控制系统负责在无人机启动时规划目标航线,在无人机飞行时由地面站的控制软件显示飞行的航迹、地图、飞行参数等,并利用控制系统调整日标航线与航路点;飞行控制系统利用gps定位信号来分析无人机的速度、位置及高度等,使无人机根据预先设定的航线白由飞行;数据处理系统利用影像处理软件拼接航片、给坐标信息下定义、制作数字地面模型;航拍系统能够结合实际需求,搭载数值航摄仪、单反数码相机等航拍系统,进而满足各种精度和类型的航拍要求。但是,对于低空小型无人机采集视频的智能分析,特别是利用变化检测手段提取监视区地物或现象变化信息,目前缺乏行之有效的方法。近年来,各个领域对遥感影像数据获取的要求都越来越高,卫星遥感影像收集由于受到高度、分辨率、天气条件及重访周期的影响往往难以满足要求,常规航空拍摄也常受空域及气象等条件的制约,对于紧急任务要求难以胜任且成本高昂。当自动分析无人机图像时,有几个挑战需要克服。对物体的平视和小视:当前的计算机视觉算法和数据集是用以人为中心通过水平拍摄的近距离物体照片的实验室设置而设计和评估的。对于垂直拍摄的无人机图像,感兴趣的对象相对较小且特征较少,主要表现为平面和矩形。如,从无人机上拍摄的建筑物图像只显示屋顶,而建筑物的地
面图像将具有门、窗和墙等特征。即使我们可以获得大量的图像,我们仍需对其进行标注。这是一项人工标注判读工作量大,并且手工任务,需要精确性和准确性,因为“输入垃圾意味着输出垃圾”。除了手动完成之外,没有什么神奇方法来解决标签问题。在任何监督机器学习流程中,标记图像可能是最困难和最耗时的步骤。无人机图像尺寸很大,大多数情况下分辨率超过3000px x 3000px。这增加了处理此类图像时的计算复杂度。对象重叠:分割图像的问题之一是同一个对象可能出现在两张不同的图像中。这会导致重复检测和计数错误。边缘特征的提取极易受到噪声的干扰。由于无人机在空中飞行时受到气流和风向的影响,姿态角和航向会产生偏差,相片旋偏角和重叠度不够稳定,并且一般无人机均搭配性价比较高的非量测型相机所以获取的相片边缘存在非线性光学畸变(如桶形或枕形畸变),给影像后期处理带来困难。检测方法很大程度依赖于人为设计特征的合理性导致鲁棒性差。此外,在检测过程中,某些彼此非常接近的对象也可能具有重叠的边框。或遮挡情况时,传统图像变化检测主要解决影像数据中较大尺度的变化信息,无法解决视频变化检测中存在的视频数据量大、视频单帧视野小、相邻帧覆盖区域重叠度高、小尺度变化信息、背景复杂等问题。图像富含大量的信息,而对图像进行处理也意味着大量的计算量。在微小最难探测的对象是最小的对象,因为它们的分辨率较低。视频是由一系列空间和时间连续的视频帧组成,而视频帧实质是一副静态影像,虽然静态影像变化检测已得到深入研究,但实时、准确的视频图像变化检测方法却很少见。图像变化检测解决的核心问题是通过发同一关注区域、不同时刻拍摄的两幅图像(将先拍摄的定义为参考图,后拍摄的定义为检测现图)之间的图像差异来发现地物或现象变化信息,它是实现静态图像和动态视频智能分析的有效手段。无人机在执行某区域的侦察任务中,视频图像中的地面背景往往比较复杂,目标区域的外观在不同的时间可能存在各种差异,在图像中也大多呈不规则分布状态,给变化区域的检测带来较大困难。视频图像变化区域检测及分类是利用多个时期的覆盖同一地区的无人机视频场景图像来确定地物状态变化的技术过程,涉及变化的类型、分布状况及变化信息、变化前后的地物类型、界限并分析变化的属性,执行同一次航拍侦察任务时前后某两个时刻的视频图像,以及不同次航拍侦察任务时某两次航拍侦察的视频图像。视频图像变化区域检测最典型的应用领域是卫星遥感影像分析,它通过对多时相获取的覆盖同一地表区域的遥感影像及其它辅助数据进行处理,实现不同时段目标或现象状态变化的识别和分析,同时还能确定一段时间间隔内地物或现象的变化,并提供地物空间分布及其变化的定量和定性分析。由于无人机拍摄时间不同、拍摄角度不同、拍摄时气象条件不同导致的目标区域视频颜色、亮度和像素分布都有较大差异,而且多源图像的图像特征有较大差异,单一特征难以完成可见光图像与红外图像在同一坐标系下的配准。采用常规的仿射或单应模型无法精确拟合图像全场的变换关系,在配准结果中存在较多的局部配准误差,导致提取的变化信息中包含过多的干扰,因而不能精确区分同类目标的变化性。根据图像数据处理的三个层次,遥感影像分析领域常用的变化检测可分为像素级变化检测、特征级变化检测和目标级变化检测。像素级变化检测是在图像配准/对齐基础上,对每个位置不同时相的灰度或色彩(rgb)像素值进行比较,并判断是否发生变化,进而检测出变化区域。像素级变化检测易受影像配准、辐射校正等因素的影响,但由于该类方法更大地保留了图像原有细节信息,因而是当前主流的变化检测方法。特征级变化检测需首先确定感兴趣的对象并提取其特征(如边缘、形状、轮廓、纹理等),然后对这些特征进行综合比较和分析,获取该对象的变化信
息。通常,特征级变化检测会对特征进行关联处理,因而它对特征属性的判断具有更高的可信度和准确性,但它不是基于原始数据,在特征提取过程中不可避免地会出现信息丢失,难以提供细微变化信息。目标级变化检测是在图像理解和识别基础上,检测某些特定对象(如道路、房屋等)的变化信息,是一种基于目标模型的高层分析方法,该类方法最大的优点是能更好响应用户需求,但其不足之处在于目标提取的困难性。深度神经网络在特征级变化检测方法中的应用使得算法对于计算机平台的浮点数计算能力要求较高,机载计算平台的计算能力很大程度限制了检测效果。


技术实现要素:

3.本发明的目的是针对现有技术无人机低空航拍视频图像变化检测方法在无人机视频监控中存在的性能和速度方面的问题,提供一种检测速度快,检测精度高,实时、准确的无人机航拍视频图像智能检测方法。
4.本发明通过下述技术方案实现:一种无人机航拍视频图像智能检测方法,包括以下步骤:
5.视觉接收系统在视频数据采集过程中,给坐标信息下定义,获取无人机目标区域低空航拍图视频图像;
6.地面站基于样本参数传递在线检测模型,通过无线数传将接收到的多时相航拍参考视频传送到飞控计算机;
7.飞控计算机图像处理器对检测视频样本特征集的可见光侦察图像和红外侦察图像进行模糊线性鉴别数据分析,创建预训练模型检测多个航拍视频图像对象进行无人机视频数据预处理,计算预处理后航拍图视频图像中各连通域中像素,将光流作为灰度像素点在图像上的瞬时运动场,检校视频关键帧和关键帧全球定位系统gps插值;
8.预训练模型提取目标参考视频待检测目标的特征点和相邻关键帧之间的重叠图像信息,在目标区域类型图像中等间隔选取光流点,计算光流点的运动矢量,从不同角度将同一场景图像的进行分类、比较、匹配,并测量每幅图象中物体间的角度后,利用图像a-kaze特征点匹配、图像仿射变换和图像融合,逐帧拼接参考视频关键帧,将帧依次拼接在一起,将帧拼接成全景图,完成图像拼接和融合后,同时使用单通道图像坐标系与世界坐标系的对应关系计算航拍位置、偏航,根据每幅图像相关联的gis数据拼接生成全景参考图,创建整个景观视图,在将参考视频图像拼接生成全景参考图的过程中,提取参考视频中分量直方图的关键帧,并在相邻关键帧的重叠区域中提取出a-kaze特征点,通过特征匹配算法进行特征点匹配计算图像变换矩阵,基于变换矩阵将所提取关键帧变换到全景参考图空间,将参考视频转换为参考全景图;
9.基于样本参数传递的在线检测模型在检测视频与全景参考图配准过程中,检测视频帧与全景参考图配准,从检测视频中提取的任意检测帧,通过人工选择待目标区域或自动提取方法找到检测视频中需要关注的帧,利用待检测帧和全参考景图gps信息,快速实现检测帧在参考全景图中的粗定位,基于粗定位结果,自动调节跟踪窗口大小,在同一坐标系下对提取的可见光图像与红外图像变化区域的多源图像、同源图像进行配准与融合,利用gps初定位和基于a-kaze特征点匹配的图像配准方法进行检测帧与全景参考图的精确配准,实现待检测帧和全景参考图的快速、精确对齐;
10.在线检测模型在执行图像变化检测过程中,自动化监测航拍视频图像,对图像变化区域进行检测,对配准后的图像进行去噪、直方图均衡化操作,去除噪声、光照和不相关变化的影响,通过低通滤波方式有效去除生成变化图像视差和配准误差的影响,生成初始变化图像,利用meanshift算法进行迭代运算,移动搜索窗口的中心到迭代的最大位置,调整搜索窗口的大小,通过滑动窗口向上采样,寻找小的、密集的对象,基于图像形态学处理、图像局部二进制模式rgb-lbp特征比较和区域面积及灰度柱状图比较,采用迁移学习的原则对图像进行训练,利用深度学习软件对变化图中变化位置进行验证,修正初始变化图,构建变化目标区域数据集,训练深度网络权重,并更新权值,生成最终准确度更高的航拍视频图像变化图像。
11.本发明采用的视觉接收系统在视频数据采集过程中,给坐标信息下定义,获取无人机目标区域低空航拍图视频图像,地面站基于样本参数传递在线检测模型,通过无线数传将接收到的多时相航拍参考视频传送到飞控计算机,飞控计算机图像处理器对检测视频样本特征集的可见光侦察图像和红外侦察图像进行模糊线性鉴别数据分析,创建预训练模型检测多个航拍视频图像对象进行视频数据预处理,计算预处理后航拍图视频图像中各连通域中像素,将光流作为灰度像素点在图像上的瞬时运动场,检校视频关键帧和关键帧全球定位系统gps插值;
12.预训练模型提取目标参考视频待检测目标的特征点和相邻关键帧之间的重叠图像信息,在目标区域类型图像中等间隔选取光流点,计算光流点的运动矢量,从不同角度将同一场景图像的进行分类、比较、匹配,并测量每幅图象中物体间的角度后,利用图像a-kaze特征点匹配、图像仿射变换和图像融合,逐帧拼接参考视频关键帧,将帧依次拼接在一起,将帧拼接成全景图,完成图像拼接和融合后,同时使用单通道图像坐标系与世界坐标系的对应关系计算航拍位置、偏航,根据每幅图像相关联的gis数据拼接生成全景参考图,创建整个景观视图,在将参考视频图像拼接生成全景参考图的过程中,提取参考视频中分量直方图的关键帧,并在相邻关键帧的重叠区域中提取出a-kaze特征点,通过特征匹配算法进行特征点匹配计算图像变换矩阵,基于变换矩阵将所提取关键帧变换到全景参考图空间,将参考视频转换为参考全景图;
13.基于样本参数传递的在线检测模型在检测视频与全景参考图配准过程中,检测视频帧与全景参考图配准,从检测视频中提取的任意检测帧,通过人工选择待目标区域或自动提取方法找到检测视频中需要关注的帧,利用待检测帧和全参考景图gps信息,快速实现检测帧在参考全景图中的粗定位,基于粗定位结果,自动调节跟踪窗口大小,在同一坐标系下对提取的可见光图像与红外图像变化区域的多源图像、同源图像进行配准与融合,利用gps初定位和基于a-kaze特征点匹配的图像配准方法进行检测帧与全景参考图的精确配准,实现待检测帧和全景参考图的快速、精确对齐;
14.在线检测模型在执行图像变化检测过程中,自动化监测航拍视频图像,对图像变化区域进行检测,对配准后的图像进行去噪、直方图均衡化操作,去除噪声、光照和不相关变化的影响,通过低通滤波方式有效去除生成变化图像视差和配准误差的影响,生成初始变化图像,利用meanshift算法进行迭代运算,移动搜索窗口的中心到迭代的最大位置,调整搜索窗口的大小,通过滑动窗口向上采样,寻找小的、密集的对象,基于图像形态学处理、图像局部二进制模式rgb-lbp特征比较和区域面积及灰度柱状图比较,采用迁移学习的原
则对图像进行训练,,利用深度学习软件对变化图中变化位置进行验证,修正初始变化图,构建变化目标区域数据集,训练深度网络权重,并更新权值,生成最终准确度更高的航拍视频图像变化图像。
15.为了更好地实现本发明,进一步地,进行无人机视频数据预处理的方法包括:
16.拍摄传感器检校、视频关键帧提取和gps插值,参考视频拼接生成全景参考图;
17.对参考视频提取关键帧,基于关键帧相邻关系进行图像匹配,筛选出航拍视频图像连通域的位置坐标集,并映射到标准坐标空间生成变化检测所需要的全景图;
18.检测航拍视频帧与全景参考图配准或对齐;
19.对于视频变化检测,首先通过人工选定或自动提取方法找到检测视频中需要处理的帧;
20.然后,找到全景参考图像和待检测图像中相同的覆盖区域,并将两幅图像配准,利用gps信息快速实现检测帧在全景参考图中的粗定位,采用自适应权重目标区域融合算法完成红外图像目标变化区域和可见光图像目标变化区域的融合,基于图像特征点匹配方法进行检测帧与参考图的精确配准,拍检测视频帧与参考视频全景图精确配准后,用低通滤波方式生成变化图,去除视差和配准误差的影响;
21.再次,利用rgb-lbp特征比较方法,计算出每个航拍视频帧位置的变化信息;
22.最后,利用形态学操作、区域面积和灰度柱状图比对手段对每个位置的变化信息进行验证,并输出最终变化图像。
23.为了更好地实现本发明,进一步地,所述利用深度学习软件对变化图中变化位置进行验证的方法包括:
24.深度学习软件通过人工设定同名点,基于最小二乘平差理论,利用光束法区域网平差模型对获取的检校场数据和高精度控制点数据进行区域网空中三角测量,解求出所需的拍摄传感器几何检校参数,即像片内方位元素、径向畸变系数、切向畸变系数、电荷耦合器件ccd非正方形比例系数以及ccd非正交性的畸变系数。
25.为了更好地实现本发明,进一步地,所述检校视频关键帧和关键帧全球定位系统gps插值的计算方法包括:
26.在视频关键帧提取及gps插值中,基于无人机航迹数据,在给定重叠度下可推导自动提取关键帧时间间隔t的公式为:
27.其中,帧幅下宽xn的公式为:
28.帧幅上宽xf的公式为:
29.为保证x方向的重叠度,在t秒后拍摄传感器在x方向上重叠度dx的公式为:
30.在y方向上重叠度dy的公式为:
31.帧幅高y的公式为:y=h
·
[cot(tan-1
(2h/f)+θ)+cot(tan-1
(2h/f)-θ)];
[0032]
在视频关键帧gps插值中,针对选取的关键帧,记录每个关键帧所对应的位置信息,该位置信息由无人机搭载的gps导航仪提供,如果gps信息不连续,利用牛顿插值法进行gps插值,使gps信息和提取的关键帧一一对应,
[0033]
其中,h为某时刻t无人机航高,υ为速度,ω为拍摄传感器传感器宽,h为高,f为焦距,θ为倾斜拍摄相机与水平面夹角,n为对应区域分割成块子区域。
[0034]
为了更好地实现本发明,进一步地,所述将参考视频图像拼接生成全景参考图的过程包括:
[0035]
参考视频拼接生成全景图包括a-kaze特征点提取、特征点匹配、图像拼接和全景图生成;
[0036]
在a-kaze特征点提取中,从两幅有重叠的相邻关键帧中分别提取a-kaze图像特征;
[0037]
首先,利用非线性扩散滤波和快速显式扩散fed算法构建图像金字塔;
[0038]
其次,在非线性尺度空间寻找经尺度归一化后的3
×
3邻域hessian矩阵行列式极值,得到图像特征点坐标;
[0039]
再次,基于特征点圆形区域所有邻近点的一阶微分值确定该特征点主方向;
[0040]
最后,将特征点邻域图像旋转到主方向,采用改进的局部差分二进制描述子m-ldb生成图像特征向量;
[0041]
在a-kaze特征点匹配中,将两幅重叠关键帧中提取的特征点进行匹配;
[0042]
首先,利用海明距离定义两个a-kaze特征描述符间的相似度;
[0043]
然后,利用双向k近邻分类knn算法查找特征点的初始匹配点;
[0044]
最后,采用随机抽样一致算法ransac对匹配点对进行筛选,去除误匹配对;
[0045]
在图像拼接及全景图生成时,针对接收参考视频进行预处理,基于随机抽样提取视频关键帧并记录每个关键帧gps信息,参考视频关键帧集合为k为参考视频抽取关键帧的总帧数,k为当前关键帧帧序号,设定关键帧f1为全景图空间,视频拼接将关键f2到关键帧fk逐一变换到全景图空间。
[0046]
为了更好地实现本发明,进一步地,所述将参考视频图像拼接生成全景参考图的过程还包括:
[0047]
在图像拼接及全景图生成时,针对接收参考视频进行预处理,基于随机抽样提取视频关键帧并记录每个关键帧gps信息,参考视频关键帧集合为参考视频关键帧集合为设定关键帧f1为全景图空间,将关键f2到关键帧fk逐一变换到全景图空间,选择具有适应平移、旋转、缩放功能的仿射变换模型m作为图像坐标变换矩阵,将图像坐标变
换表示为:
[0048][0049]
其中,k为参考视频抽取关键帧的总帧数,k为当前关键帧帧序号,(x,y)和(x’,y’)分别表示全景图像和待拼接图像中的像素点坐标,m
0-m5为仿射变换参数。
[0050]
为了更好地实现本发明,进一步地,所述关键帧的拼接过程包括:
[0051]
首先,将所有像素节点划分为目标变化区域和非变化区域,提取可见光图像目标变化区域与红外图像目标变化区,对于待拼接关键帧f2,提取关键帧f1和关键帧f2重叠区域a-kaze特征点,计算大于3对匹配点的匹配点集match2和match1,并采用最小二乘法得到帧f2到帧f1全景图空间的图像变换矩阵m
1,2
;然后,判断是否对于k>2,对于k>2的待拼接关键帧fk,计算第k-1帧和k帧重叠区域特征点集match
k-1
和matchk,提取关键帧fk和关键帧f
k-1
重叠区域a-kaze特征点,利用最小二乘法计算得到帧fk到全景图空间的变换矩阵m
1.k
,用变换矩阵m
1.k-1
对matchk进行坐标变换得到match
k-1
,计算第k帧到k-1帧的变换矩阵m
1.k
,得到关键帧帧f
k-1
在全景图空间下的匹配点集match
k-1
,将关键帧f
k-1
中匹配点集match
k-1
和match
k-1
投影到全景图空间,否则基于匹配点集match
k-1
和matchk,计算第1帧和第2帧重叠区域特征点集match1和match2,再计算第2帧到第1帧的变换矩阵m
1.2
,最后,利用图像变换矩阵m
1.k
和双线性插值方法将关键帧fk变换到全景图空间,并利用图像融合技术进行拼缝处理,完成图像拼接,生成最终的全景图。
[0052]
为了更好地实现本发明,进一步地,所述进行检测帧与全景参考图的精确配准的方法包括:
[0053]
基于gps的快速粗定位和基于a-kaze特征的精确配准,在基于gps的检测帧快速粗定位时,对接收检测视频进行预处理,提取执行变化检测的图像帧及其gps信息,将检测帧gps信息与全景参考图中记录的各关键帧gps信息对比,在全景图中找到最接近的4个相邻关键帧区域,并将此区域作为变化检测的初始参考图区域;在基于a-kaze特征的精确配准时,进行a-kaze特征点提取、a-kaze特征点匹配、检测图像变换到参考图空间三步完成检测图像与粗定位参考图区域的精确配准;然后,分别在配准后检测图像和全景参考图像中提取相同位置和大小的图像区域t和图像区域r,从检测结果中输出置信度阈值大于预设置信度阈值的目标图像,其中,t和r分别作为变化检测输入的测试图像和参考图像。
[0054]
为了更好地实现本发明,进一步地,所述在线检测模型在执行图像变化检测过程中包括:
[0055]
初始变化图像生成,首先将参考图r和检测图t进行rgb图像到灰度图像的转换,得到对应灰度参考图r
gray
和灰度测试图t
gray
;然后,基于灰度参考图r
gray
和灰度测试图t
gray
对应位置灰度值生成差异图像,利用差异值判断初始变化图d每个像素位置,d(i,j)是否表示变化,是则计算检测帧和参考图像素位(i,j)和文字位置rgb-lbp特征,利用表示邻域窗口大小n,为n
×
n。)邻域窗口,以低通滤波方式分别计算灰度参考图r
gray
到灰度检测图t
gray
的差异图dr,灰度检测图t
gray
到对赌参考图r
gray
的差异图d
t
,计算公式为:
[0056][0057][0058]
基于差异图像dr、差异图d
t
以及划分阈值δ
diff
,计算初始变化图像d,成初始变化图d基于rgb-lbp特征比对验证初始变化图像d中值为1的像素位置,对于初始变化图像d值为1的位置(i,j),利用rgb-lbp特征比对进行确认,如果两次均检测为变化,则该位置设定为变化,否则为未变化,在参考图r和检测图t的3个颜色通道分别计算以位置(i,j)为中心,15
×
15邻域内每个点的8位二进制编码lbp特征,并将最终lbp特征按位置和通道进行串接,构成参考图r和测试图t在(i,j)位置的lbp特征sr(i,j)和s
t
(i,j),在以该位置为中心的3
×
3邻域内,从左上角开始,顺时针对8个相邻位置进行0/1编码,如果灰度值比中心位置低,则该点编码为0,否则为1;然后,计算参考图r和测试图t在(i,j)位置的lbp特征sr和s
t
的海明距离d
rt
(i,j);最后,基于海明距离判断像素位置(i,j)是否发生变化,如果海明距离d
rt
(i,j)满足d
rt
(i,j)>δh×
|sr(i,j)|,则(i,j)位置发生变化,初始变化图像中d(i,j)值保持1不变,否则,(i,j)位置未发生变化,将初始变化图像中d(i,j)的值由1修改为0。其中,
[0059]
其中,0:未变化,1:变化,n∈{7,9,11},δi表示位置坐标i在n邻域的偏移,δj表示位置坐标j在n邻域的偏移,δ
diff
∈[0,50],取值依据图像光照差异程度,|sr|表示二进制特征串的长度,δh为判断阈值。
[0060]
为了更好地实现本发明,进一步地,在变化图像后处理中,为了有效剔除误报,需对验证后变化图像进行后处理,操作流程如下:首先,首先进行灰度化处理、灰度校正以及平滑滤波,筛选阶跃边缘点、标线边缘点,并连接边缘点,剔除假边缘,提取标线信息,检测利用形态学开运算去除孤立变化位置,并将验证后变化图d中对应区域设置为未变化,然后,计算每个变化区域的像素面积,根据图像分辨率和最小关注目标大小,确定最小变化区域面积δa,将验证后变化图像d中面积小于δa的区域设置为未变化,计算出检测帧和参考图(i,j)位置rgb-lbp特征后,计算特征相似度,若特征相似度大于阈值,d(i,j)保持不变,若特征相似度小于阈值,则修正d(i,j),设置为未变化,并变化图像后处理,对验证后变化图像d中每个变化区域a
p
,找到其最小外接矩形区域b
p
,在灰度参考图r
gray
和灰度测试图t
gray
中提取b
p
对应图像区域和并计算区域的灰度直方图特征和区域的灰度直方图特征和的距离计算方式如下:
[0061][0062]
式中,β为灰度直方图特征维数,和代表特征的平均值,q表示直方图第q维的值;当小于0.35时,d中变化区域a
p
设置为未变化,否则不变。
[0063]
本发明与现有技术相比,具有以下优点及有益效果:
[0064]
(1)检测速度快。本发明以航拍视频图像变化检测应用为基础,获取无人机低空航拍图视频图像,地面站在视频数据采集过程中,基于样本参数传递在线检测模型,通过创建预训练模型检测多个航拍视频图像对象进行视频数据预处理,计算预处理后航拍图视频图像中各连通域中像素,将光流作为灰度像素点在图像上的瞬时运动场,检校视频关键帧和关键帧全球定位系统gps插值;尤其适合低空无人机短时间间隔(几十分钟或几个小时)内近下视拍摄的两段观测视频中,自动发现前后两段视频中地物或现象变化信息:人、车辆、建筑、公共设施等目标的消失、出现或部分损坏。变化检测执行结果既可作为图像分析数据直接返回给用户,也可传送给更高层任务进行语义分析,如场景理解、目标检测、目标跟踪等。结合视频关键帧提取和基于图像拼接技术,以不同于传统逐帧处理的视频图像变化检测方法,将参考视频转换为参考全景图,这样不仅解决了单帧视野小、视频相邻帧覆盖区域重叠度高等问题,且保证在图像信息不丢失的前提下,极大减少视频图像变化检测中需处理图像帧的数目。在检测帧与全景参考图配准过程中,结合gps粗定位和a-kaze特征匹配技术,通过前者快速确定检测帧在全景参考图中的位置范围和后者实现检测帧和全景参考图的精确配准,相比传统基于尺度不变特征转换sift(scale-invariant feature transform)特征匹配的图像配准方法,在配准速度和配准精度上均有明显提升;
[0065]
(2)检测准确率高。本发明针对无人机低空航拍视频数据的特性,从不同角度将同一场景的图像进行比较、匹配,并测量每幅图象中物体间的角度后,将帧依次拼接在一起,将帧拼接成全景图,完成图像拼接和融合后,同时使用单通道图像坐标系与世界坐标系的对应关系计算航拍位置、偏航,根据每幅图像相关联的gis数据拼接生成全景参考图创,建整个景观视图,在将参考视频图像拼接生成全景参考图的过程中,提取参考视频中分量直方图的关键帧,并在相邻关键帧的重叠区域中提取出a-kaze特征点,通过特征匹配算法进行特征点匹配计算图像变换矩阵,基于变换矩阵将所提取关键帧变换到全景参考图空间,将参考视频转换为参考全景图,通过全景参考图生成、基于gps粗定位和a-kaze特征点匹配的层次图像配准,有效提高了待检测帧与全景参考的图配准精度(1个像素以内),减少了配准误差对变化检测准确率的影响,匹配的准确率可以达到90%。通过图像去噪、图像增强、低通滤波差异图像生成、基于rgb-lbp特征比较的变化信息检测、基于形态学处理和灰度直方图特征比较的变化信息验证等手段,去除了大量噪声、误检测和无关变化信息(如水面波纹、树叶舞动等),提高了变化检测的准确率;
[0066]
(3)本发明为了解决视频数据量大、视频单帧视野小、相邻帧覆盖区域重叠度高等问题,结合视频关键帧提取和图像拼接的全景参考图生成技术,基于样本参数传递的在线检测模型在检测视频与全景参考图配准过程中,检测视频帧与全景参考图配准,通过人工选择待目标区域或自动提取方法找到检测视频中需要关注的帧,利用待检测帧和全参考景图gps信息,快速实现检测帧在参考全景图中的粗定位,基于粗定位结果,自动调节跟踪窗口大小,利用图像a-kaze特征点匹配方法进行检测帧与全景参考图的精确配准,并更新权值;在不丢失视频数据信息的前提下,快速实现了视频变化检测到图像变化检测的转换。为了提高对小尺度变化信息的检测率,减小复杂背景对检测结果的影响,基于低通滤波的初始变化图像生成方法,并利用两种不同特征比对方法对变化信息进行验证。此外,图像去噪、图像增强、形态学处理等手段在图像预处理和检测结果后处理过程中的应用也极大提高检测准确率和在复杂背景中的鲁棒性;
[0067]
(4)本发明在执行图像变化检测过程中,自动化监测航拍视频图像,对图像变化区域进行检测,对配准后的图像进行去噪、直方图均衡化操作,去除噪声、光照和不相关变化的影响,通过低通滤波方式有效去除生成变化图像视差和配准误差的影响,生成初始变化图像,利用meanshift算法进行迭代运算,移动搜索窗口的中心到迭代的最大位置,调整搜索窗口的大小,通过滑动窗口向上采样,寻找小的、密集的对象,基于图像形态学处理、图像局部二进制模式rgb-lbp(rgb-local binary pattern)特征比较和区域面积及灰度柱状图比较,采用迁移学习的原则对图像进行训练,利用深度学习软件对变化图中变化位置进行验证,修正初始变化图,生成最终准确度更高的航拍视频图像变化图像。克服了现有变化检测技术在航拍视频数据上应用存在的弊端,尤其适用于快速准确发现一定时间间隔内无人机平台拍摄两段视频中人、车辆、建筑、公共设施等目标状态变化情况,在场景监视、目标搜查等领域有着广泛的应用前景。
附图说明
[0068]
本发明结合下面附图和实施例做进一步说明,本发明所有构思创新应视为所公开内容和本发明保护范围。
[0069]
图1是本发明无人机航拍视频图像智能检测方法流程图。
[0070]
图2是图1中参考视频生成全景图像流程图。
[0071]
图3是图1中检测视频和全景图像变化检测、配准过程的流程图。
具体实施方式
[0072]
为了更清楚地说明本发明实施例的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,应当理解,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例,因此不应被看作是对保护范围的限定。基于本发明中的实施例,本领域普通技术工作人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0073]
实施例1:
[0074]
本实施例的一种无人机航拍视频图像智能检测方法,如图1所示,根据本发明,视觉接收系统在视频数据采集过程中,给坐标信息下定义,获取无人机目标区域低空航拍图视频图像,地面站基于样本参数传递在线检测模型,通过无线数传将接收到的多时相航拍参考视频传送到飞控计算机,飞控计算机图像处理器对检测视频样本特征集的可见光侦察图像和红外侦察图像进行模糊线性鉴别数据分析,创建预训练模型检测多个航拍视频图像对象进行视频数据预处理,计算预处理后航拍图视频图像中各连通域中像素,将光流作为灰度像素点在图像上的瞬时运动场,检校视频关键帧和关键帧全球定位系统gps插值;
[0075]
预训练模型提取目标参考视频待检测目标的特征点和相邻关键帧之间的重叠图像信息,在目标区域类型图像中等间隔选取光流点,计算光流点的运动矢量,从不同角度将同一场景图像的进行分类、比较、匹配,并测量每幅图象中物体间的角度后,利用图像a-kaze特征点匹配、图像仿射变换和图像融合,逐帧拼接参考视频关键帧,将帧依次拼接在一起,将帧拼接成全景图,完成图像拼接和融合后,同时使用单通道图像坐标系与世界坐标系的对应关系计算航拍位置、偏航,根据每幅图像相关联的gis数据拼接生成全景参考图,创
建整个景观视图,在将参考视频图像拼接生成全景参考图的过程中,提取参考视频中分量直方图的关键帧,并在相邻关键帧的重叠区域中提取出a-kaze特征点,通过特征匹配算法进行特征点匹配计算图像变换矩阵,基于变换矩阵将所提取关键帧变换到全景参考图空间,将参考视频转换为参考全景图;
[0076]
基于样本参数传递的在线检测模型在检测视频与全景参考图配准过程中,检测视频帧与全景参考图配准,从检测视频中提取的任意检测帧,通过人工选择待目标区域或自动提取方法找到检测视频中需要关注的帧,利用待检测帧和全参考景图gps信息,快速实现检测帧在参考全景图中的粗定位,基于粗定位结果,自动调节跟踪窗口大小,在同一坐标系下对提取的可见光图像与红外图像变化区域的多源图像、同源图像进行配准与融合,利用gps初定位和基于a-kaze特征点匹配的图像配准方法进行检测帧与全景参考图的精确配准,实现待检测帧和全景参考图的快速、精确对齐;
[0077]
在线检测模型在执行图像变化检测过程中,自动化监测航拍视频图像,对图像变化区域进行检测,对配准后的图像进行去噪、直方图均衡化操作,去除噪声、光照和不相关变化的影响,通过低通滤波方式有效去除生成变化图像视差和配准误差的影响,生成初始变化图像,利用meanshift算法进行迭代运算,移动搜索窗口的中心到迭代的最大位置,调整搜索窗口的大小,通过滑动窗口向上采样,寻找小的、密集的对象,基于图像形态学处理、图像局部二进制模式rgb-lbp特征比较和区域面积及灰度柱状图比较,采用迁移学习的原则对图像进行训练,,利用深度学习软件对变化图中变化位置进行验证,修正初始变化图,构建变化目标区域数据集,训练深度网络权重,并更新权值,生成最终准确度更高的航拍视频图像变化图像。kaze是在非线性尺度空间中进行的一种新型的多尺度2d特征检测和描述算法。
[0078]
实施例2:
[0079]
本实施例在实施例1的基础上做进一步优化,为实时、准确对无人机低空航拍视频图像进行变化检测,仍然采用视频数据预处理、参考视频拼接生成全景图、检测视频帧与全景参考图配准、变化区域检测四大步骤。在无人机视频数据预处理、参考视频拼接生成全景参考图像、检测视频帧与全景参考图配准和变化检测中,采用具体实施方式如下:
[0080]
无人机视频数据预处理主要包括拍摄传感器检校、视频关键帧提取和gps插值,参考视频拼接生成全景参考图。视频图像数据量大,相邻帧之间图像内容重复度高,且单帧图像覆盖范围有限,不宜作为变化检测参考图像,故需对参考视频提取关键帧,并基于关键帧相邻关系进行图像匹配,筛选出航拍视频图像连通域的位置坐标集,并映射到标准坐标空间生成变化检测所需要的全景图;
[0081]
航拍视频帧变化检测的前提是将两幅包含相同区域的图像进行精确配准,检测航拍视频帧与全景参考图配准或对齐,对于视频变化检测,首先,通过人工选定或自动提取方法找到检测视频中需要处理的帧;然后,找到全景参考图像和待检测图像中相同的覆盖区域,并将两幅图像配准,由于全景图覆盖范围大,直接配准不能满足实时性要求,故利用gps信息快速实现检测帧在全景参考图中的粗定位,最后采用自适应权重目标区域融合算法完成红外图像目标变化区域和可见光图像目标变化区域的融合,基于图像特征点匹配方法进行检测帧与参考图的精确配准;
[0082]
航拍检测视频帧与参考视频全景图精确配准后,变化检测可自动发现相同覆盖区
域前后两次拍摄中人、车辆、建筑、公共设施等目标的消失、出现、损坏等变化情况。本发明中变化检测方法首先利用去噪、直方图均衡化等手段去除噪声、光照和不相关变化的影响;其次,用低通滤波方式生成变化图,去除视差和配准误差的影响,再次,利用rgb-lbp特征比较方法,计算出每个航拍视频帧位置的变化信息,最后,利用形态学操作、区域面积和灰度柱状图比对等手段对每个位置的变化信息进行验证,并输出最终变化图像。
[0083]
本实施例的其他部分与实施例1相同,故不再赘述。
[0084]
实施例3:
[0085]
本实施例在上述实施例1或2的基础上做进一步优化,在无人机视频数据预处理包括拍摄传感器检校、视频关键帧提取和gps插值中,拍摄传感器检校。拍摄传感器检校是后续工作的前提,在对拍摄传感器检校之前,首先应确认拍摄传感器的机械结构坚固稳定,不存在晃动,同时要保证其光学结构和电子结构同样可靠稳定;然后,利用室外检校场进行摄影机的几何标定,具体过程为:深度学习软件通过人工设定同名点,基于最小二乘平差理论,利用光束法区域网平差模型对获取的检校场数据和高精度控制点数据进行区域网空中三角测量,解求出所需的拍摄传感器几何检校参数,即像片内方位元素、径向畸变系数、切向畸变系数、电荷耦合器件ccd(charge coupled device)非正方形比例系数以及ccd非正交性的畸变系数。
[0086]
本实施例的其他部分与上述实施例1或2相同,故不再赘述。
[0087]
实施例4:
[0088]
本实施例在上述实施例1-3任一项的基础上做进一步优化,在视频关键帧提取及gps插值中,基于无人机航迹数据,在给定重叠度下可推导自动提取关键帧时间间隔的公式为:
[0089][0090]
其中,帧幅下宽:
[0091]
帧幅上宽:
[0092]
为保证x方向的重叠度,在t秒后拍摄传感器在x方向上重叠度为:
[0093]
在y方向上重叠度为:
[0094]
帧幅高:y=h
·
[cot(tan-1
(2h/f)+θ)+cot(tan-1
(2h/f)-θ)],如果gps信息不连续,可利用牛顿插值法进行gps插值,使得gps信息和提取的关键帧一一对应;
[0095]
式中,为h假设某时刻无人机航高(单位:m),速度为υ(单位:m/s),ω为采用拍摄传感器传感器宽、h为高、f为焦距(单位:mm),θ为相机与水平面夹角,n为对应区域分割成块子区域。
[0096]
针对接收到的视频,由于数据量大,且视频相邻帧信息重复率高,关键帧选取是视频变化检测的关键。考虑倾斜拍摄(相机与水平面夹角为θ,拍摄图像覆盖地面实际宽度呈现下窄上宽)影响,针对选取的关键帧,需记录每个关键帧所对应的位置信息,该位置信息由无人机搭载的gps导航仪提供。因此,在视频关键帧gps插值中,针对选取的关键帧,记录每个关键帧所对应的位置信息,该位置信息由无人机搭载的gps导航仪提供,如果gps信息不连续,利用牛顿插值法进行gps插值,使gps信息和提取的关键帧一一对应。
[0097]
本实施例的其他部分与上述实施例1-3任一项相同,故不再赘述。
[0098]
实施例5:
[0099]
本实施例在上述实施例1-4任一项基础上做进一步优化,如图2所示,参考视频拼接生成全景图包括-kaze特征点提取、特征点匹配、图像拼接和全景图生成:在a-kaze特征点提取中,从两幅有重叠的相邻关键帧中分别提取a-kaze图像特征,主要流程如下:首先,利用非线性扩散滤波和快速显式扩散fed(fast explicit diffusion)算法构建图像金字塔;其次,在非线性尺度空间寻找经尺度归一化后的3
×
3邻域hessian矩阵行列式极值,得到图像特征点坐标;再次,基于特征点圆形区域所有邻近点的一阶微分值确定该特征点主方向;最后,将特征点邻域图像旋转到主方向,采用改进的局部差分二进制描述子m-ldb(modified-local difference binary)生成图像特征向量;
[0100]
在a-kaze特征点匹配中,将两幅重叠关键帧中提取的特征点进行匹配,主要流程如下:首先,利用海明距离定义两个a-kaze特征描述符间的相似度;然后,利用双向k近邻分类knn算法查找特征点的初始匹配点;最后,采用随机抽样一致算法ransac对匹配点对进行筛选,去除误匹配对;
[0101]
在图像拼接及全景图生成时,针对接收参考视频进行预处理,记录每个关键帧gps信息,计算关键帧间隔时间,基于随机抽样提取视频关键帧,根据参考视频关键帧集合设定关键帧f1为全景图空间,将关键f2到关键帧fk逐一变换到全景图空间,选择具有适应平移、旋转、缩放功能的仿射变换模型m作为图像坐标变换矩阵,将图像坐标变换表示为:
[0102][0103]
其中,k为参考视频抽取关键帧的总帧数,k为当前关键帧帧序号,(x,y)和(x,,y,)分别表示全景图像和待拼接图像中的像素点坐标,m
0-m5为仿射变换参数。
[0104]
本实施例的其他部分与上述实施例1-4任一项相同,故不再赘述。
[0105]
实施例6:
[0106]
本实施例在上述实施例1-5任一项基础上做进一步优化,键帧拼接具体流程如下:在关键帧拼接过程中,首先,将所有像素节点划分为目标变化区域和非变化区域,提取可见光图像目标变化区域与红外图像目标变化区,对于待拼接关键帧f2,提取关键帧f1和关键帧f2重叠区域a-kaze特征点,计算大于3对匹配点的匹配点集match2和match1,并采用最小二乘法得到帧f2到帧f1全景图空间的图像变换矩阵m
1,2
;然后,判断是否对于k>2,对于k>2的待拼接关键帧fk,计算第k-1帧和k帧重叠区域特征点集match
k-1
和matchk,提取关键帧fk和
关键帧f
k-1
重叠区域a-kaze特征点,利用最小二乘法计算得到帧fk到全景图空间的变换矩阵m
1.k
,用变换矩阵m
1.k-1
对matchk进行坐标变换得到match
k-1
,计算第k帧到k-1帧的变换矩阵m
1.k
,得到关键帧帧f
k-1
在全景图空间下的匹配点集match
k-1
,将关键帧f
k-1
中匹配点集match
k-1
和match
k-1
投影到全景图空间,否则基于匹配点集match
k-1
和matchk,计算第1帧和第2帧重叠区域特征点集match1和match2,再计算第2帧到第1帧的变换矩阵m
1.2
,最后,利用图像变换矩阵m
1.k
和双线性插值方法将关键帧fk变换到全景图空间,并利用图像融合技术进行拼缝处理,完成图像拼接,生成最终的全景图。
[0107]
检测帧与全参考景图配准包括基于gps的快速粗定位和基于a-kaze特征的精确配准,在基于gps的检测帧快速粗定位时,对接收检测视频进行预处理,提取执行变化检测的图像帧及其gps信息,将检测帧gps信息与全景参考图中记录的各关键帧gps信息对比,在全景图中找到最接近的4个相邻关键帧区域,并将此区域作为变化检测的初始参考图区域;在基于a-kaze特征的精确配准时,进行a-kaze特征点提取、a-kaze特征点匹配、检测图像变换到参考图空间三步完成检测图像与粗定位参考图区域的精确配准;然后,分别在配准后检测图像和全景参考图像中提取相同位置和大小的图像区域t和图像区域r,从检测结果中输出置信度阈值大于预设置信度阈值的目标图像,其中,t和r分别作为变化检测输入的测试图像和参考图像。
[0108]
本实施例的其他部分与上述实施例1-5任一项相同,故不再赘述。
[0109]
实施例7:
[0110]
本实施例在上述实施例1-6任一项基础上做进一步优化,如图3所示,图像变化检测执行主要包括图像预处理、低通滤波变化生成图,在图像预处理中,输入全景图和检测帧,对输入的测试图像t和参考图像r,利用一个2维高斯卷积核对图像模糊化,利用gps信息对检测帧进行粗定位,提取a-kaze特征,计算变换矩阵,检测帧和参考图精确配准,配准后检测帧和参考图预处理,利用低通滤波法生成初始变化图d,对于rgb图像,可分别对参考图r和检测图t三个通道图像进行高斯滤波,去除细节(如水面波纹、树叶舞动等)和噪声对变化检测结果的影响,然后,利用直方图均衡化方法增加参考图r和检测图t对比度,细节变得更加,同时可以减小两幅图像光照差异带来的影响,然后基于rgb-lbp特征的变化验证和检测结果后处理;
[0111]
为了克服光照、噪声、视差及配准误差的影响,线检测模型在图像变化检测执行过程中,初始变化图像生成,首先将参考图r和检测图t进行rgb图像到灰度图像的转换,得到对应灰度参考图r
gray
和灰度测试图t
gray
;然后,基于灰度参考图r
gray
和灰度测试图t
gray
对应位置灰度值生成差异图像,利用差异值判断初始变化图d每个像素位置,d(i,j)是否表示变化,是则计算检测帧和参考图像素位(i,j)和文字位置rgb-lbp特征,利用表示邻域窗口大小n,为n
×
n。)邻域窗口,以低通滤波方式分别计算灰度参考图r
gray
到灰度检测图t
gray
的差异图dr,灰度检测图t
gray
到对赌参考图r
gray
的差异图d
t
,计算公式为:
[0112][0113]
[0114][0115]
基于差异图像dr、差异图d
t
以及划分阈值δ
diff
,计算初始变化图像d,成初始变化图d基于rgb-lbp特征比对验证初始变化图像d中值为1的像素位置,对于初始变化图像d值为1的位置(i,j),利用rgb-lbp特征比对进行确认,如果两次均检测为变化,则该位置设定为变化,否则为未变化,在参考图r和检测图t的3个颜色通道分别计算以位置(i,j)为中心,15
×
15邻域内每个点的8位二进制编码lbp特征,并将最终lbp特征按位置和通道进行串接,构成参考图r和测试图t在(i,j)位置的lbp特征sr(i,j)和s
t
(i,j),在以该位置为中心的3
×
3邻域内,从左上角开始,顺时针对8个相邻位置进行0/1编码,如果灰度值比中心位置低,则该点编码为0,否则为1;然后,计算参考图r和测试图t在(i,j)位置的lbp特征sr和s
t
的海明距离d
rt
(i,j);最后,基于海明距离判断像素位置(i,j)是否发生变化,如果海明距离d
rt
(i,j)满足d
rt
(i,j)>δh×
|sr(i,j)|,则(i,j)位置发生变化,初始变化图像中d(i,j)值保持1不变,否则,(i,j)位置未发生变化,将初始变化图像中d(i,j)的值由1修改为0。其中,
[0116]
其中,0:未变化,1:变化,n∈{7,9,11},δi表示位置坐标i在n邻域的偏移,δj表示位置坐标j在n邻域的偏移,δ
diff
∈[0,50],取值依据图像光照差异程度,|sr|表示二进制特征串的长度,δh为判断阈值,一般取0.3。
[0117]
本实施例的其他部分与上述实施例1-6任一项相同,故不再赘述。
[0118]
实施例8:
[0119]
本实施例在上述实施例1-7任一项基础上做进一步优化,在变化图像后处理中,为了有效剔除误报,需对验证后变化图像进行后处理,操作流程如下:首先,首先进行灰度化处理、灰度校正以及平滑滤波,筛选阶跃边缘点、标线边缘点,并连接边缘点,剔除假边缘,提取标线信息,检测利用形态学开运算去除孤立变化位置,并将验证后变化图d中对应区域设置为未变化,然后,计算每个变化区域的像素面积,根据图像分辨率和最小关注目标大小,确定最小变化区域面积δa,将验证后变化图像d中面积小于δa的区域设置为未变化,计算出检测帧和参考图(i,j)位置rgb-lbp特征后,计算特征相似度,若特征相似度大于阈值,d(i,j)保持不变,若特征相似度小于阈值,则修正d(i,j),设置为未变化,并变化图像后处理,对验证后变化图像d中每个变化区域a
p
,找到其最小外接矩形区域b
p
,在灰度参考图r
gray
和灰度测试图t
gray
中提取b
p
对应图像区域和并计算区域的灰度直方图特征和区域的灰度直方图特征和的距离计算方式如下:
[0120][0121]
其中,β为灰度直方图特征维数,和代表特征的平均值,q表示直方图第q维的值。当小于0.35时,d中变化区域a
p
设置为未变化,否则不变。
[0122]
为了方便显示,将变化图d中未变化位置像素值设为0(黑色),变化位置像素值设置为255(白色)。至此,无人机视频变化检测完成。
[0123]
本实施例的其他部分与上述实施例1-7任一项相同,故不再赘述。
[0124]
以上所述,仅是本发明的较佳实施例,并非对本发明做任何形式上的限制,凡是依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化,均落入本发明的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1