基于深度学习的室内烟雾和火灾检测方法与流程

文档序号:23896180发布日期:2021-02-09 12:22阅读:208来源:国知局
基于深度学习的室内烟雾和火灾检测方法与流程

[0001]
本发明涉及火灾检测技术领域,尤其涉及一种基于深度学习的室内烟雾和火灾检测方法。


背景技术:

[0002]
火灾是人类生产生活中最为常见的灾害之一,及时有效的对烟雾、火灾进行预警成为近年来研究的重点。随着摄像监控技术的成熟和普及,以及计算机视觉技术的快速发展,使得越来越多的人工智能应用在火灾检测中得以实现。
[0003]
传统的检测装置都是依赖烟雾报警装置,通过检测火灾引起的烟雾达到预警的目的,这种方式预警延迟现象突出,尤其是一些大型厂房、仓库或者楼宇内。另外,传统传感器一般是通过洒水的方式来减小火情,这种方式不能第一时间发出预警信息,同时还有可能使得其他未着火的设备损坏,造成不必要的损失。
[0004]
与传统的基于传感器的火灾探测技术相比,基于深度学习的烟雾、火灾检测方法有着响应速度快、信息直观、抗干扰性强等优势,能够避免烟雾传感器因传感器灵敏程度低导致的一些漏报与误报。目前,现有技术还没有一种有效的基于深度学习的火灾检测方法。


技术实现要素:

[0005]
本发明的实施例提供了一种基于深度学习的室内烟雾和火灾检测方法,以实现对室内火灾、烟雾进行有效的检测。
[0006]
为了实现上述目的,本发明采取了如下技术方案。
[0007]
一种基于深度学习的室内烟雾和火灾检测方法,包括:
[0008]
建立烟雾和火灾数据集,对所述烟雾和火灾数据集中的每张图像进行标注,选取标注后的一定数量的图像分别作为训练集和测试集;
[0009]
使用深度学习框架构建卷积深度网络模型,利用所述训练集和测试集对卷积深度网络模型进行训练和测试,得到训练好的卷积深度网络模型;
[0010]
将待测的图像输入到所述训练好的卷积深度网络模型,所述训练好的卷积深度网络模型输出所述待测的图像的烟雾和火灾检测结果。
[0011]
优选地,所述的建立烟雾和火灾数据集,对所述烟雾和火灾数据集中的每张图像进行标注,选取标注后的一定数量的图像分别作为训练集和测试集,包括:
[0012]
通过摄像头采集楼宇内烟雾、火灾的视频数据,通过视频抽帧的方法按一定步长将所述视频数据转化为图像数据,利用开源软件labelimg对图像中的火灾、烟雾依次进行标注,得到标注好的图像数据,该标注好的图像数据包括:火灾、烟雾单独出现的图像数据;火灾和烟雾同时出现的图像数据;火灾、烟雾近景和目标远景的图像数据;不包含火灾、烟雾的图像数据;
[0013]
将所述标注好的图像数据按照一定比例分为训练集和测试集,所述训练集和所述测试集中均包含有火灾、烟雾出现的正样本图像和没有火灾、烟雾出现的负样本图像。
[0014]
优选地,所述的使用深度学习框架构建卷积深度网络模型,包括:
[0015]
使用基于深度学习框架keras构建卷积深度网络模型,该卷积深度网络模型是以yolov3为骨架的深度网络模型,采用darknet-53结构,包括53个卷积层,23个残差块,5次下采样,卷积深度网络模型的输入图像的尺寸为32的倍数。
[0016]
优选地,所述的利用所述训练集和测试集对卷积深度网络模型进行训练和测试,得到训练好的卷积深度网络模型,包括:
[0017]
将训练集中的图像数据缩放成32的倍数的尺寸大小,将缩放后的图像数据输入到卷积深度网络模型中,对卷积深度网络模型的网络权值参数进行初始化,分两阶段对卷积深度网络模型进行训练,在训练的第一阶段,进行模型训练预热,冻结除最后三层的所有层,只对最后三层进行权重训练,设置学习率初始值为0.001,批次样本数为16,训练迭代数为50;在训练的第二阶段,解冻模型的所有层进行训练,设置学习率初始值为0.0001,批次样本数为16,训练迭代数为350;
[0018]
根据上述训练策略进行卷积深度网络模型的训练,直至卷积深度网络模型收敛,并保存训练好的卷积深度网络模型的网络权值参数。
[0019]
优选地,所述的利用所述训练集和测试集对卷积深度网络模型进行训练和测试,得到训练好的卷积深度网络模型,还包括:
[0020]
将所述测试集中的图像数据作为训练好的卷积深度网络模型的输入,在不同的iou和置信度下测试卷积深度网络模型的误检率、漏检率和每秒传输帧数fps,获得卷积深度网络模型的最佳参数。
[0021]
优选地,所述的将待测的图像输入到所述训练好的卷积深度网络模型,所述训练好的卷积深度网络模型输出所述待测的图像的烟雾和火灾检测结果,包括:
[0022]
利用摄像头采集待测试场景中的视频数据,将视频数据转化为待测的图像数据,将待测的图像数据输入到训练好的卷积深度网络模型中,该训练好的卷积深度网络模型对待测的图像数据进行并行化处理,利用卷积深度网络模型的darknet-53部分对输入的图像进行特征提取,提取出不同的降采样倍率的特征图,选择不同倍率的特征图进行对齐、拼接和卷积操作,选择13*13*255、26*26*255、52*52*255维的特征图作为输出检测器,通过输出检测器输出待测的图像数据的火灾和烟雾检测结果。
[0023]
由上述本发明的实施例提供的技术方案可以看出,本发明实施例提出的一种基于深度学习的室内烟雾、火灾检测方法,其利用摄像头获取的图像数据,通过卷积神经网络模型对图像数据中的烟雾、火灾进行实时预测,不仅极大地降低了人力成本,而且提高了烟雾、火灾的识别准确率,而且本方法具有较强的鲁棒性,具有较好的应用前景。
[0024]
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
[0025]
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0026]
图1为本发明实施例提供的一种基于深度学习的室内烟雾和火灾的检测方法的实现原理示意图;
[0027]
图2为本发明实施例提供的一种基于深度学习的室内烟雾和火灾的检测方法的处理流程图。
具体实施方式
[0028]
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
[0029]
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
[0030]
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
[0031]
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解释说明,且各个实施例并不构成对本发明实施例的限定。
[0032]
本发明实施例提供的一种基于深度学习的室内烟雾和火灾的检测方法的实现原理示意图如图1所示,具体处理流程如图2所示,包括以下处理步骤:
[0033]
步骤s1:建立烟雾和火灾数据集,利用labelimg软件对烟雾和火灾数据集中的每张图像进行标注,选取标注后的一定数量的图像分别作为训练集和测试集。
[0034]
上述烟雾和火灾数据集主要包含以下内容:数据集为在楼宇内摄像头实地采集烟雾、火灾的视频数据,并通过视频抽帧的方法按一定步长将视频数据转化为图像数据,利用开源软件labelimg对图像中的火灾、烟雾依次进行标注,标注数据格式为pascal voc格式,得到标注信息存储在xml文件中。标注好的图像数据中,有火灾、烟雾单独出现的图像数据,有火灾、烟雾同时出现的图像数据,有目标(火灾、烟雾)近景和目标远景的图像数据,以及不包含目标(火灾、烟雾)的图像数据。将上述的数据集按照一定比例分为训练集和测试集,常用的比例有9:1或者8:2,训练集和测试集中均包含有火灾、烟雾出现的正样本图像和没有火灾、烟雾出现的负样本图像。
[0035]
步骤s2:使用深度学习框架构建卷积深度网络模型。
[0036]
使用基于深度学习框架keras构建卷积深度网络模型,该卷积深度网络模型是以yolov3为骨架的深度网络模型,采用darknet-53结构,包括53个卷积层,23个残差块,5次下采样。如果程序外部输入的图像不是32倍数的图像,程序要对图像进行预处理以保证卷积深度网络模型的输入尺寸一定是32的倍数。
[0037]
步骤s3:将步骤s1中的训练集数据作为步骤s2构建的卷积深度网络模型的输入,设置卷积深度网络模型的先关参数,对卷积深度网络模型进行训练,直至卷积深度网络模型达到收敛状态。
[0038]
将训练集中的训练图像数据全部缩放成416*416尺寸大小,以适应卷积深度网络模型的输入。这里也可以将图像数据缩放成不同尺寸,但是为了匹配卷积深度网络模型,缩放倍数必须是32的倍数。
[0039]
将缩放后的图像数据输入到卷积深度网络模型中,设计卷积深度网络模型的训练策略,对卷积深度网络模型的网络权值参数进行初始化。
[0040]
同时分两阶段对卷积深度网络模型进行训练。在训练的第一阶段,进行模型训练预热,冻结除最后三层的所有层,只对最后三层进行权重训练,设置学习率初始值为0.001,批次样本数为16,训练迭代数为50。在训练的第二阶段,解冻模型的所有层进行训练,设置学习率初始值为0.0001,批次样本数为16,训练迭代数为350。根据上述训练策略进行卷积深度网络模型的训练,直至卷积深度网络模型收敛,并保存训练好的卷积深度网络模型的网络权值参数。当卷积深度网络模型的训练损失收敛的时候,可视作卷积深度网络模型也收敛。
[0041]
步骤s4:利用步骤s1中的测试集数据作为步骤s3训练好的卷积深度网络模型的输入,检测卷积深度网络模型的性能,获得卷积深度网络模型的最佳参数,将性能最佳的卷积深度网络模型作为火灾和烟雾检测模型。
[0042]
在步骤s4中,利用步骤s1中的测试集数据作为步骤s3训练好的卷积深度网络模型的输入,在不同的iou和置信度下测试卷积深度网络模型的误检率、漏检率以及fps(frames per second,每秒传输帧数),获得卷积深度网络模型的最佳参数。
[0043]
其中,误检率如下定义:
[0044][0045]
误检率定义如下:
[0046][0047]
其中,tp、tn、fp、fn分别代表最终的测试集中真阳性样本个数、真阴性样本个数、假阳性样本个数、假阴性样本个数。
[0048]
在特别设备下,卷积深度网络模型的fps定义如下:
[0049][0050]
其中s为模型处理一帧图像所需的时间。
[0051]
步骤s5:将上述步骤s3、步骤s4训练测试出的卷积深度网络模型作为火灾和烟雾检测模型,对非数据集中的待测的图像进行烟雾、火灾的类别检测与定位。
[0052]
利用摄像头采集相同场景下的视频数据,通过opencv将视频数据转化为待测的图像数据,将待测的图像数据输入到火灾和烟雾检测模型,该火灾和烟雾检测模型对待测的图像数据进行并行化处理,利用卷积深度网络模型的darknet-53部分对输入的图像进行特征提取,提取出不同的降采样倍率的特征图,选择不同倍率的特征图进行对齐、拼接和卷积操作,形成语义更为丰富的特征图,选择13*13*255、26*26*255、52*52*255维的特征图作为
输出检测器,通过输出检测器输出待测的图像数据的火灾和烟雾检测结果,实现实时的火灾、烟雾的类别检测与定位。
[0053]
综上所述,本发明实施例提出的一种基于深度学习的室内烟雾、火灾检测方法,其利用摄像头获取的图像数据,通过卷积神经网络模型对图像数据中的烟雾、火灾进行实时预测,不仅极大地降低了人力成本,而且提高了烟雾、火灾的识别准确率,而且本方法具有较强的鲁棒性,具有较好的应用前景。
[0054]
与传统烟雾、火灾检测器相比,本发明利用深度学习方法实现了烟雾、火灾识别的智能化,提高了烟雾、火灾识别的准确率。
[0055]
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
[0056]
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
[0057]
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1