基于三维光场技术的光学无人机监测方法及系统与流程

文档序号:22622836发布日期:2020-10-23 19:29阅读:149来源:国知局
基于三维光场技术的光学无人机监测方法及系统与流程

本发明属于无人机监测领域,特别涉及一种基于光场技术的无人机监测方法和系统。



背景技术:

随着无人机技术的发展,对无人机的监测系统的改进有着广泛的需求,现有技术中多采用雷达和摄像头相结合的监测系统。雷达监测易受隐身技术欺骗且低空监测的效果较差,摄像头一般来说分辨率较低。中国发明专利申请201810128587.2公开了一种无人机监测系统及其监督方法。在该方法中,利用软件方法,扫描区域内的图像,通过第一和第二相机形成立体视觉判断图像中是否存在可疑的目标,通过计算可疑目标的准确位置,对可疑目标进行跟踪拍摄。该技术主要是在软件部分进行改进。中国发明专利申请201810396720.2公开了一种无人机探测方法、装置及电子设备。也主要是从软件的角度,控制探测平台上的相机转动,采取发送转动指令至转台的电机,以使电机带动转台上的多台相机转动预设角度;发送停止指令至该电机,以使该电机控制转台在转动预设角度后停止转动;当确定上述多台相机停止预设时间后,控制多台相机进行一次拍摄以获取多个图像;对该多个图像进行图像识别,确定监控区域内是否存在无人机;如果监控区域内不存在无人机,则重新执行以上步骤。上述两项现有技术的缺陷在于,由于缺乏高分辨率的图像,因此无法准确判定远距离的无人机以及所探测到无人机的空间位置。

现有技术中,存在两种方法可以提高图像的分辨率。其中一个是减小像素尺寸。当像素尺寸减小时,其信噪比(snr)也会随之降低。因此,减小像素尺寸方面存在一个界限,如果超出这一界限的话,就会出现由于散粒噪声的增加导致图像分辨率下降的情况。而另外一种方法就是将更多的光电检测器装入到芯片之中,进而增加传感器芯片的尺寸。同样,这一方法的代价就是芯片的电容增加,而这反过来又会降低电荷的传输速率,并且需要更长的图像捕捉时间。除此之外,这一方法还会使传感器芯片的大小和成本显著增加。为了获得优化的方案,并考虑成本方面的效益,在拍摄高分辨率照片时,就必须适当的缩短其拍摄时间,并在质量上进行合理的提高。对无人机检测而言,优化后的高分辨率图像可能依旧不足以满足大多数的实际应用环境。

需要一种新的分辨率高,并且稳定的监测方法和系统,获得清晰的立体图像,从而在监测或探测无人机的过程中提高效率和准确性。



技术实现要素:

本发明的目的在于提供一种新的分辨率高,并且稳定的监测方法和系统,获得清晰的立体图像,从而在监测或探测无人机的过程中提高效率和准确性。本发明的一个目的在于提供一种基于光场技术的无人机监测方法,包括:开始无人机监测;通过光场相机获得较低分别率的视频图像信息;判断所获得的视频图像信息是否为无人机;对其中的无人机图像进行图形重建;获得重建后的光场图像深度及位置信息监测无人机并发出警示。其中所述图像重建步骤为基于模型的超分辨率方法或基于多帧的超分辨率方法。其中所述基于多帧的超分辨率方法,从一组分辨率相对较低(lr)的图像中重建一个分辨率较较高(hr)图像的方法,也可以被称为多帧图像超分辨方法;利用记录得到的分辨率相对较低(lr)的图像之间的相关性进行重建。其中所述无人机图像的重建步骤,包括(a)通过微透镜阵列成像的光场图像;(b)根据焦平面的距离排列的子孔径图像序列;(c)单个子孔径图像;(d)根据主镜头上的位置排列的多视角子孔径图像;其中所述多视角子孔径图像阵列是在原始复眼图像进行处理后获得的。其中所述无人机图像的重建步骤后,将重建的光场图像结合估计的深度图对光场图像进行再聚焦,并将再聚焦的图像相结合获得所有聚焦的光场图像。其中根据上述合成孔径技术,原始复眼图像中的像素点被重投影到了各个子孔径图像中,形成了对场景不同视角的成像,并将原始复眼图像中的光场信息进一步合成、提取,得到成像空间的多视角视图,并获得数字重聚焦序列和深度图。其中采用下列公式:

l′(u,v,x′,y′)=l(u,v,kx′+(1-k)u,ky′+(1-k)v)(5)

i′(x′,y′)=∫∫l(u,v,kx′+(1-k)u,ky′+(1-k)v)dudv(6)

其中,i,i’表示一次和二次成像面的坐标系;

l和l’表示一次和二次成像面的能量。

当在取得被摄物体在每个微透镜的深度数据后,便可计算出整个影像的深度图,从而拍摄出立体的3d视频图像。其中,在获得所述视频图像信息前不需要进行适当的聚焦;进行一次拍摄就能捕捉到所有的深度图信息。还包括下列步骤:对所述视频图像的图像帧进行分类;将所述图像帧进行语义分割;检测到无人机图像;并且将所述无人机图像进行实例分割,分割聚类出不同物体的像素。还包括:在对光场图像进行处理和解码后,对所述视频图像的超分辨率帧进行分析;对于给定的经过预处理的监控视频,将视频中的帧序列重塑为数据矩阵;并且对数据矩阵进行分析和编码以提取图像的主要特征;并且利用机器学习技术,对无人机图像特征模式进行识别,进而检测出视频图像中的无人机。其中所述的机器学习技术为rcnn,fastrcnn,yolo,ssd方法。

本发明提供的三维光场技术的光学无人机监测方法和系统能够对监测过程中的震动进行隔离,从而在监测或探测无人机的过程中提高效率和准确性。

附图说明

为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实例,对于本领域普通技术人员来讲,在不付出创新性劳动的前提下,还可以根据这些附图获得其他的附图。

图1为本发明的无人机监测方法的流程图100。

图2为本发明的无人机监测方法的图像重建步骤示意图。

图3(a)和3(b)为本发明的光场成像系统的示意图。

图3(c)为处理后的光场图像示例图。

图4(a)为本发明的无人机监测方法的图像重建步骤解码的示例图。

图4(b)为本发明的无人机监测方法的对合成孔径图像进行数字重聚焦的原理图。

图4(c)为本发明的无人机监测方法的移动子孔径图像来计算重新聚焦的图像原理示意图。

图5为本发明的无人机监测方法的目标检测和图像跟踪示例图。

图6(a)为本发明的无人机监测方法的目标监测和图像跟踪步骤流程图。

图6(b)为本发明的无人机监测方法中的fastrcnn方法网络结构示意图。

图7示意性地示出了用于执行根据本发明的方法的服务器的框图;以及

图8示意性地示出了用于保持或者携带实现根据本发明的方法的程序代码的存储单元。

具体实施方式

现结合相应的附图,对本发明的具体实施例进行描述。然而,本发明可以以多种不同的形式实施,而不应被解释为局限于此处展示的实施例。提供这些实施例只是为了本发明可以详尽和全面,从而可以将本发明的范围完全地描述给本领域的技术人员。附图中说明的实施例的详细描述中使用的措辞不应对本发明造成限制。

图1为本发明的无人机监测方法的流程图100。在步骤101,在启动无人机监测系统开始监测;在步骤102,在较大的范围内获得视频图像信息,所述视频图像信息相对分辨率较低,在步骤103,通过与存储的数据库进行对比,判定所获得的分辨率较低图像是否符合数据库中无人机的形状,一旦目标匹配,则进入步骤104,聚焦在锁定目标上的远摄镜头来跟踪可疑目标,从而通过对无人机图像进行重构的方法获得目标无人机的高分辨率图像和光场信息,并进入步骤105;在不匹配的情况下,回到步骤102,重复在较大的范围内获得相对分辨率较低的视频图像信息;在步骤105,再次使用这些低分辨率视频图像信息进行计算和验证后,计算并获得所述光场图像的深度及位置信息并向用户或控制塔发出警示。也就是说,高分辨率图像一旦与数据库中的无人机形状信息具有高度的相似性,就会将报警信号发送给监控系统,所述无人机的深度及位置信息也将被送回监督中心。

图2为本发明的无人机监测方法的图像重建步骤示意图。为了获得高分频率的图像,方法主要分为两大类:基于模型的超分辨率方法以及基于多帧的超分辨率方法。基于模型的超分辨率方法是通过使用不同的假设噪声模型来实现超分辨率图像。而本发明提供的是一种从一组分辨率相对较低(lr)的图像中重建一个分辨率较较高(hr)图像的方法,也可以被称为多帧图像超分辨方法;利用记录得到的分辨率相对较低(lr)的图像之间的相关性进行重建。这种图像之间的相关性可以通过测量获得,也可以通过假设建模的方式来计算得出。

图4(a)为本发明的无人机监测方法的图像重建步骤解码的示例图。解码过程300的目标在于将获得的光场图像301在步骤305进行图像重建,将重建的光场图像结合估计的深度图302对光场图像进行再聚焦303,并将再聚焦303的图像相结合获得所有聚焦的光场图像304。其中在步骤305进行的图像重建为光场图像解码的关键步骤,其包括:(a)通过微透镜阵列成像的光场图像;(b)子孔径图像序列(根据焦平面的距离排列);(c)单个子孔径图像;(d)子孔径图像序列(根据主镜头上的位置排列);其中,图305(d)为本发明的相机系统获得的多视角子孔径图像阵列,其中所述多视角子孔径图像阵列是在原始复眼图像进行处理后获得的。根据上述合成孔径技术,原始复眼图像中的像素点被重投影到了各个子孔径图像中,形成了对场景不同视角的成像。可以将原始复眼图像中的光场信息进一步合成、提取,得到成像空间的多视角视图,并进一步得到数字重聚焦序列;并且进一步得到深度图。其中,图4(b)为本发明的无人机监测方法的对合成孔径图像进行数字重聚焦的原理图,对合成孔径图像利用图4(b)所示的原理进行数字重聚焦:

l′(u,v,x′,y′)=l(u,v,kx′+(1-k)u,ky′+(1-k)v)(5)

i′(x′,y′)=∫∫l(u,v,kx′+(1-k)u,ky′+(1-k)v)dudv(6)

其中,i,i’表示一次和二次成像面的坐标系;

l和l’表示一次和二次成像面的能量。

当在取得被摄物体在每个微透镜的深度数据后,便可计算出整个影像的深度图,从而拍摄出立体的3d视频图像。

在上述步骤104,采用光场相机获得目标无人机的高分辨率图像和光场信息。与传统相机不同,光场相机不仅捕获二维图像,还捕获入射光线的方向。图3(a)和3(b)显示了在cmos传感器301前面具有微透镜阵列302的光场成像系统的机制。图3(a)通过像素的所有光线都通过其母微透镜并通过主透镜303上的共轭方形(子光圈)。图3(b)通过子孔径的所有光线通过不同微透镜下的相应像素聚焦。这些像素形成通过该子孔径看到的照片。

光场图像i(x,y)可以由公式表示可以由公式表示:

i(x,y)=∫∫lf(u,v,x,y)dudv(1)

其中(u,v,x,y)表示沿着与(u,v)处的主透镜相交的光线行进的光和(x,y)处的微透镜平面,并且使用全光圈。图4(c)为本发明的无人机监测方法的移动子孔径图像来计算重新聚焦的图像原理示意图,可以通过图4(c)所示的方式移动子孔径图像来计算重新聚焦的图像:

移位的光场函数可以表示为:

光场成像技术允许重新聚焦图像并估计场景的深度图。通过光场计算出基本的深度范围,并结合图像上的位置来确定无人机的位置。

对于芯片板应用的半导体制造,可以使用复眼来找出铝粘合线的最大环高度,芯片上的第一键合高度和基板上的第二键合高度。图3(c)为处理后的光场图像示例图。在图3(c)中,正方向上的更大数量(μm)意味着朝向物镜的更近的虚拟焦平面。物镜表面上的焦平面校准为0μm。处理后的光场图像。图3(c)的左上图像是顶部线层,图3(c)的右上图像是中间层,图3(c)的左下图像是底部金属层,图3(c)的右下图像是全焦点图像。将开发自动聚焦软件以捕获所有线图像,而无需命令垂直轴的任何机械运动。将开发实时aoi软件并与自动对焦软件结合使用。用户界面将显示由相机拍摄的图像和全焦点图像,将标记检测到的任何缺陷。

本发明采用光场成像技术定位所监测到的无人机的空间位置。首先,在进行摄影前不需要进行适当的聚焦。事后聚焦可以在图像被捕获后进行。其次,它只需一次拍摄就能捕捉到所有的深度图信息。而利用深度图信息就可以确定出现在拍摄图像上的任何物体位置的三维信息。

以距离/深度计算功能能够实现对无人机与摄像机之间距离的测量。该测量过程主要利用光场技术以及结构光视觉技术。其中,光场为一个能够对通过空间中的每个点的每一个方面的光辐射传输数量进行描述的函数(即描述光在三维空间中的辐射传输特性)。能够通过利用光场摄影技术对场景中所有有用的信息进行捕捉。光场摄像机(也别称为全光摄像机)既能捕捉到场景中与光线强度相关的信息,同时也能捕捉到与光学在空间中传播方向相关的信息。光场摄像机的核心部件为微透镜阵列。其中,每个微透镜下均覆盖多个光传感器像素,并且能够将照射向该微透镜的光线分离为下方像素上的一个小图像。在成像中对微透镜阵列的应用是一种受动物视觉启发的技术,因此,其在光场摄像机中也被称为“复眼”。通过将主透镜与复眼相结合的方式,能够实现4d光场信息在光传感器上的记录,进而实现了该光场图像解码过程。该功能模块主要包含以下三个方面,即图像重建、重新定焦以及深度图估计。作为光场解码的基础,图像重建主要涉及到4d光场的光线跟踪;而重新定焦在本质上为合成孔径技术的一个实例;通过对上述两个步骤进行估计得到的深度图总是进入三维世界的门户。在经过光场图像解码之后,就可以计算出目标和摄像机之间的距离。

图5为本发明的无人机监测方法的目标检测和图像跟踪示例图。如图5左上角附图所示,将图像帧进行分类;如图5右上角附图所示,将图像帧进行语义分割;如图5左下角附图所示,检测到所述图像;并且如图5右下角附图所示,进行实例分割,分割聚类出不同物体的像素。

图6(a)为本发明的无人机监测方法的目标监测和图像跟踪步骤流程图600。在步骤601,对光场图像进行处理和解码后,将在步骤602自动对监控视频中的超分辨率帧进行分析。该分析过程将被建立在机器深入学习以及及其智能理论之上。该模块的主要目的是监测出存在于视频中的无人机,并以智能的方式对目标进行跟踪。该模块具有以下两个功能,即目标检测以及图像跟踪。该系统的目标检测功能能够在特征提取以及视频分析的基础上实现对无人机的检测。在步骤604,给定一个经过预处理的监控视频,系统会将视频中的帧序列重塑为数据矩阵。然后对该数据矩阵进行分析和编码以提取图像的主要特征,从而将数据矩阵维度降低,进而提高了视频中基本信息的可见性。在步骤605,利用机器学习技术,可以实现对无人机图像特征模式的识别,这时视频中的无人机就会被系统检测出来。

图6(b)为本发明的无人机监测方法中的fastrcnn方法网络结构示意图。可采用rcnn,fastrcnn,yolo,ssd等,深度学习的模型。以fastrcnn为例,去除了r-cnn中冗余的特征提取,将整张图像输入神经网络进行一次特征提取:用roipooling层取代最后一个maxpooling层,同时引入bbox回归层,提取相应的建议proposal特征。fastrcnn网络末尾采用的是并行的两个连接层,clsscore层和bboxscore层,可同时输出分类结果和回归结果,第一次实现了end-to-end的多任务训练。训练步骤包括:输入图像和多个感兴趣区域(roi)被输入到完全卷积网络中。每个roi汇集到固定大小的特征映射中,然后通过完全连接的层映射到特征向量。网络每个roi有两个输出向量:softmax概率和每类边界框回归偏移。该架构通过多任务丢失进行端到端的训练。通过fastrcnn模型下载和下列的训练完成监测和跟踪过程:1.准备训练数据:其中label/label.txt里面为imageset中对应的图片信息,包括roi的bbox位置以及图片名字和所属类别(bird,uav,plane)三类,2.selectivesearch为每张训练图片提取建议框,3.然后给出利用label.txt读取图片信息,生成bboxes的代码:4.通过ss的提取,生成了每张图片的建议框信息。

对无人机进行监测及识别之后,摄像机对准无人机进行重调焦距以捕捉其近景照片来获取更多的相关信息。由于无人机会一直在空中移动,摄相机应该向目标方向倾斜,以获得高质量的成像。因此,本系统将利用图像跟踪技术以实现对无人机区域的锁定,并进行智能分析来预测无人机的飞行路径。在对无人机进行检测和跟踪之后,目标场景及飞行路径将被传送到运动控制单元。并且该摄相机将由六足机器人进行驱动,以实现稳定地对准无人机。

该系统的软件将管理所有的功能模块以实现一起工作。监控视频将被系统自动分析,以检测并跟踪无人机。光场技术将被用来计算目标距离和对照片场景进行重调焦距。分辨率重建技术保证了所有过程的成像质量。该算法将涉及数字图像增强、光场解码、模式识别以及机器智能方面。相互协调并相互作用软件和硬件将会实现一个高精度且全自动化的无人机监测系统。

图7示意性地示出了用于执行根据本发明的方法的服务器的框图;以及图8示意性地示出了用于保持或者携带实现根据本发明的方法的程序代码的存储单元。例如系统应用服务器701。该物体识别和定位系统服务器包括处理器710,此处的处理器可以为上文所述通用或专用芯片,和以存储器720形式的计算机程序产品或者计算机可读介质。存储器720可以是诸如闪存、eeprom(电可擦除可编程只读存储器)、eprom、硬盘或者rom之类的电子存储器。存储器720具有用于执行上述方法中的任何方法步骤的程序代码的存储空间730。例如,用于程序代码的存储空间730可以包括分别用于实现上面的方法中的各种步骤的各个程序代码731。这些程序代码可以被读出或者写入到所述处理器710中。这些计算机程序产品包括诸如硬盘,紧致盘(cd)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为如参考图8所述的便携式或者固定存储单元。该存储单元可以具有与图7的服务器中的存储器720类似布置的存储段、存储空间等。程序代码可以例如以适当形式进行压缩。通常,存储单元包括计算机可读代码731’,即可以由例如诸如710之类的处理器读取的代码,这些代码当由服务器运行时,导致该服务器执行上面所描述的方法中的各个步骤。这些代码当由服务器运行时,导致该服务器执行上面所描述的方法中的各个步骤。

本文中所称的“一个实施例”、“实施例”或者“一个或者多个实施例”意味着,结合实施例描述的特定特征、结构或者特性包括在本发明的至少一个实施例中。此外,请注意,这里“在一个实施例中”的词语例子不一定全指同一个实施例。

以上所述仅用于说明本发明的技术方案,任何本领域普通技术人员均可在不违背本发明的精神及范畴下,对上述实施例进行修饰与改变。因此,本发明的权利保护范围应视权利要求范围为准。本发明已结合例子在上面进行了阐述。然而,在本发明公开范围以内的上述实施例以外的其它实施例也同样可行。本发明的不同的特点和步骤可以以不同于所描述的其它方法进行组合。本发明的范围仅受限于所附的权利要求书。更一般地,本领域普通技术人员可以轻易地理解此处描述的所有的参数,尺寸,材料和配置是为示范目的而实际的参数,尺寸,材料和/或配置将取决于特定应用或本发明教导所用于的应用。

当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1