一种火灾烟雾火焰图像识别方法

文档序号:33385685发布日期:2023-03-08 08:05阅读:77来源:国知局
一种火灾烟雾火焰图像识别方法

1.本发明涉及火灾监测技术领域,特别是涉及一种火灾烟雾火焰图像识别方法。


背景技术:

2.火灾监控的传统技术手段主要为接触式火灾探测器,常见于各类公共场景,但其局限于室内探测范围有限、易年久失效等缺点,难以在室内大空间或者室外开放空间进行有效火灾监控。
3.相比于接触式火灾探测器,非接触式的视频火灾探测技术具有无需额外硬件设备、火警信息直观全面、响应快速、探测范围大等优点。适用于室内大空间、室外开放空间以及野外森林的火灾监控,目前已经在高层建筑、工业厂区、林区开始普及。
4.卷积神经网络(cnn)模型已经普遍应用在智能识别领域,并且已经取得了不错的效果。为了追求网络识别准确度,cnn模型深度越来越深,cnn模型复杂度也越来越高。但是,在某些真实的应用场景如移动或者嵌入式设备,如此大而复杂的模型是难以被应用的。cnn模型过于庞大,当前面临着边缘设备内存不足的问题,而且火灾烟雾火焰监测场景要求低延迟,高准确性。因此,利用监控摄像头采集到的火灾烟雾火焰图像设计一种小而高效的火灾识别模型对火灾进行高效精准识别显得尤为重要。


技术实现要素:

5.本发明提供一种火灾烟雾火焰图像识别方法,减少火灾识别模型冗余,在火灾发生时的早期的火灾烟雾火焰图像进行准确高效的识别。
6.为实现上述效果,本发明的技术方案如下:
7.一种火灾烟雾火焰图像识别方法,包括以下步骤:
8.步骤s1:创建火灾烟雾火焰图像数据集;
9.步骤s2:对yolov5s模型改进得到用于识别火灾烟雾火焰图像的火灾识别模型;
10.步骤s3:对火灾烟雾火焰图像进行数据增强,将通过数据增强后的火灾烟雾火焰图像输入到火灾识别模型进行训练,得到训练好的火灾识别模型;
11.步骤s4:将火灾烟雾火焰图像输入至训练好的火灾识别模型中,得到火灾烟雾火焰图像的识别结果;
12.步骤s2包括:s21:对yolov5s模型进行结构改进;火灾识别模型由 backbone网络、neck网络和prediction三部分组成;backbone网络使用深度可分离卷积;
13.s22:在backbone网络的底层添加关注通道数的注意力机制模块;
14.s23:在火灾识别模型的neck网络引入无参数注意力机制模块。
15.需要说明的是,所述火灾识别模型具体包括:输入层640*640的图像张量、 backbone网络、neck网络和prediction,其中,所述输入层加入mosaic数据增强;所述backbone网络是yolov5的核心结构,所述neck网络中加入无参数注意力机制模块;prediction中将边界锚框的损失函数使用ciou
loss
损失函数;在目标检测后处理过程中,火
灾识别模型采用nms非极大值抑制对多个目标锚框进行筛选。
16.上述方案中,步骤1中火灾烟雾火焰图像数据集包括白天火灾烟雾火焰图像数据集与夜晚红外火灾火焰数据集。火灾烟雾火焰图像的识别无论白天还是夜晚时间段均可适用,根据识别结果,判断是否发生火灾,而且能对火灾边缘智能监测设备进行灵活部署,操作简单,低延时、识别精准且高效。
17.进一步的,步骤s1具体为,
18.s11:对火灾视频切帧,得到火灾烟雾火焰图像,构造类烟、类火样本,完成火灾场景的标注,形成火灾烟雾火焰图像数据集;
19.s12:将火灾烟雾火焰图像数据集按比例划分为训练集、验证集和测试集;
20.s13:使用图像矩形框标注工具labelimg对火灾烟雾火焰图像中的烟雾和火焰进行标注,获得目标物的坐标、宽高及目标物名称信息,以xml文件形式保存来制成火灾烟雾火焰图像数据集中图像对应的标签。
21.可以理解的是,采集的数据来自实际火灾烟雾火焰发生的现实场景,现实场景中的火灾视频可通过普通、红外监控器拍摄采集。针对不同远近距离目标物大小,构建不同目标物在火灾烟雾火焰图像数据集内的样本均衡。
22.进一步的,步骤s21中,backbone网络包括依次连接的第一卷积层、两个第一模块1、两个第二模块1、第三模块1、第四模块1、第五模块1、六个第六模块1、模块2;
23.其中,两个第一模块1、两个第二模块1的卷积核均为3x3;第三模块1、第四模块1卷积核均为3x3;第五模块1、六个第六模块1的卷积核均为5x5;
24.neck网络包括依次连接的第二卷积层、第一上采样层、第一融合层、三个第一模块3、第三卷积层、第二上采样层、第二融合层、三个第二模块3、第一模块4、第七模块1、第三融合层、三个第三模块3、第二模块4、第八模块1、第四融合层、三个第四模块3、第三模块4;
25.其中,第七模块1、第八模块1的卷积核均为5x5;
26.所述第三模块1的输出端和第二融合层的输入端连接,所述第五模块1的输出端和第一融合层的输入端连接,所述第三卷积层的输出端和第三融合层的输入端连接,所述第二卷积层的输出端和第四融合层的输入端连接;
27.火灾烟雾火焰图像经过第一卷积层、两个第一模块1、两个第二模块1、第三模块1得到第一特征图,第一特征图经过第四模块1、第五模块1得到第二特征图,第二特征图经过六个第六模块1、模块2得到第三特征图;
28.第三特征图经过模块2进行特征融合后通过第二卷积层进行卷积、第一上采样层进行上采样得到上采样特征图,上采样特征图与第二特征图进行特征融合,得到第一特征融合图;第一特征融合图依次通过三个第一模块3、第三卷积层、第二上采样层后与第一特征图进行特征融合,得到第二特征融合图;第二特征融合图依次通过三个第二模块3、第一模块4后获得第一输出特征图;
29.第二特征融合图依次通过三个第二模块3、第一模块4、第七模块1后与第一特征融合图依次通过三个第一模块3、第三卷积层的特征图进行特征融合,得到第三特征融合图;第三特征融合图依次经过三个第三模块3、第二模块4获得第二输出特征图;
30.第三特征融合图依次经过三个第三模块3、第二模块4、第八模块1后与经过第二卷积层的第三特征图进行特征融合操作,得到第四特征融合图;第四特征融合图通过三个第
四模块3与第三模块4,从而获得第三输出特征图。
31.可以理解的是,火灾识别模型由三部分组成:backbone网络、neck网络和 prediction,backbone网络为主干网络;深度可分离卷积可以大规模减少火灾识别模型参数量;为了保证火灾检测的精确度、实时性及部署要求,主干网络设计不使用残差连接等增加模型参数、主干网络的底层少量添加注意力模块的操作。参考神经科学的无参数注意力机制模块的能量函数,从三维角度可以再次提升对火灾烟雾火焰的识别能力。
32.进一步的,两个第一模块1、两个第二模块1、第三模块1、第四模块1、第五模块1、六个第六模块1、第七模块1、第八模块1:均包括依次连接的逐层卷积层、逐点卷积层、全局平均池化层、第一全连接层和第二全连接层;其中,逐层卷积层、逐点卷积层构成深度可分离卷积,逐层卷积层、逐点卷积层、第一全连接层使用silu激活函数,第二全连接层使用h-sigmoid激活函数;
33.步骤s21中深度可分离卷积分为逐层卷积层、逐点卷积层;
34.步骤s22中关注通道数的注意力机制模块为全局平均池化层、第一全连接层和第二全连接层;
35.模块2:包括采用多残差依次连接的卷积层、第一最大池化层、第二最大池化层、第三最大池化层、融合层;
36.三个第一模块3、三个第二模块3、三个第三模块3、三个第三模块3:均由 7个或5个依次连接的卷积层以及一个融合层组成;
37.第一模块4、第二模块4、第三模块4:为步骤s23中无参数注意力机制模块,无参数注意力机制模块由依次连接的sigmoid激活函数和能量函数组成。
38.进一步的,所述silu激活函数公式如下:
39.silu(x)=x*sigmoid(x)
40.其中,sigmoid激活函数表示为:
[0041][0042]
silu激活函数不是单调递增的,且自稳定、无上界有下界、平滑、非单调是该激活函数的重要特性,在深层模型上的效果具有优势。
[0043]
进一步的,步骤s23中所述能量函数,其计算公式为:
[0044][0045]
其中,e
t
为能量函数,n=h
×
w为单一通道上的神经元数量,t为目标神经元,oi为其他神经元,系数γ=10-4
,每个神经元的重要性通过计算获得。
[0046]
进一步的,步骤s3中对火灾烟雾火焰图像数据集进行数据增强,具体为,对火灾烟雾火焰图像数据集中多张火灾烟雾火焰图像随机缩放、随机裁剪、随机排布的方式进行拼接,实现mosaic数据增强。
[0047]
可以理解的是,mosaic数据增强可以丰富被检测物体的背景信息,给数据带来正
则化作用,且可以让有限的数据产生更多的数据,丰富火灾样本多样性及数量,从而来提高火灾识别模型的鲁棒性。
[0048]
进一步的,步骤s3中将通过数据增强后的火灾烟雾火焰图像输入到火灾识别模型进行训练,具体为:
[0049]
s31:训练集输入到火灾识别模型中,根据预设参数与预设训练迭代次数进行特征提取,并将火灾烟雾火焰图像划分成若干个特征点;
[0050]
s32:将特征点进行位置偏移并根据落入疑似火灾区域的特征点给出多个预测框;通过预测框的得分排序筛选出满足置信度的预测框,并通过非极大值抑制防止同一种类的预测框堆积并筛选出得分最大的预测框,从而获得最优的火灾烟雾火焰位置;
[0051]
s33:对训练集中的火灾烟雾火焰图像进行重新贴灰条零填充处理以使得火灾烟雾火焰图像的长宽相同,通过训练过程中火灾识别模型生成的预测框,使用基于ciou
loss
损失函数的非极大值抑制,获取置信度最大的火灾烟雾火焰预测框;
[0052]
s34:将整个火灾识别模型迭代训练过程中验证集损失最小的模型参数作为火灾识别模型的预测参数,得到训练好的火灾识别模型。
[0053]
上述方案中,步骤s33在模型训练过程中,对训练集中的火灾烟雾火焰图像进行重新贴灰条零填充处理后改变火灾烟雾火焰图像尺寸,可以实现在改变火灾烟雾火焰图像尺寸的过程中防止火灾烟雾火焰图像的失真;
[0054]
进一步的,步骤s33中ciou
loss
损失函数的计算公式为:
[0055]
ciou
loss
=1-ciou(2)
[0056]
其中:
[0057][0058][0059][0060][0061]
其中,b、b
gt
分别为预测框和真实框,b、b
gt
分别为预测框和真实框的中心点位置,ρ为预测框和真实框的中心点之间的欧氏距离,α、ν分别为预测框和真实框的长宽比,w、h分别为预测框的宽和高,w
gt
、h
gt
分别为真实框的宽和高。
[0062]
上述方案中,ciou考虑了预测框和真实框的重叠面积、中心点距离、长宽比,增加的检测框的损失和长宽损失,使得预测框更加符合真实框;。
[0063]
进一步的,步骤s4具体为:对于训练好的火灾识别模型进行格式转换得到所需精度的onnx模型,将onnx模型转为合适的边缘智能模型,将边缘智能模型部署到边缘智能设备,对边缘智能设备端拍摄的实时视频处理成火灾烟雾火焰图像输入至火灾识别模型,在边缘智能设备的边缘端完成对火灾烟雾火焰的高效识别与实时检测,边缘智能模型对火灾识别模型的输出进行解码得到火灾烟雾火焰的类别、置信度分数和所在位置。
[0064]
上述方案中,火灾识别模型的主干网络使用深度可分离卷积嵌入注意力的方式而未使用残差、池化等增加参数的操作,在减少火灾识别网络参数及推理时间的同时保证了
对火灾识别的精度;边缘智能设备可以是监控器等采集设备。
[0065]
边缘智能模型还可以对火灾的目标区域进行火灾监测与预报预警,并通过数据可视化呈现火灾发生的实时信息与火灾发生的地理位置信息;
[0066]
与现有技术相比,本发明技术方案的有益效果是:
[0067]
本发明基于yolov5s模型进行改进,取得了良好的训练效果,在火灾烟雾、火焰的识别精度和检测速度上具有优势,对火灾识别模型减少冗余,达到了检测速度和精度的均衡:
[0068]
火灾识别模型的backbone网络使用深度可分离卷积,在减少火灾识别网络的参数及推理时间的同时保证了对火灾识别的精度;
[0069]
在火灾识别模型的neck网络引入无参数注意力机制模块,使得火灾识别网络在不增加参数的同时提高对小目标火灾烟雾火焰识别的能力;
[0070]
使用了在深层模型上有优势、具有自稳定特性的silu激活函数,进一步提高火灾识别网络对火灾的识别准确性;
[0071]
本发明训练好的火灾识别模型可以移植到边缘智能设备,使边缘智能设备在其性能允许的范围内达到最好的发挥,实现火灾识别模型对火灾更加精准实时的识别。
附图说明
[0072]
附图仅用于示例性说明,不能理解为对本发明的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
[0073]
图1为本发明实施例提供的方法流程示意图;
[0074]
图2是本发明实施例提供的数据集划分示意图;
[0075]
图3是本发明实施例提供的模块1示意图;
[0076]
图4为本发明实施例提供的模块2示意图;
[0077]
图5为本发明实施例提供的模块3示意图;
[0078]
图6为本发明实施例提供的模块4示意图;
[0079]
图7为本发明实施例提供的改进的yolov5s网络整体结构图;
[0080]
图8为本发明实施例提供的火灾识别网络部署流程图;
[0081]
图9为本发明实施例提供的火灾识别系统总体设计图;
[0082]
图10为本发明实施例提供的火灾识别效果图。
具体实施方式
[0083]
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都是本发明保护的范围。
[0084]
在介绍本技术实施例之前首先对本技术中涉及到的相关名词作如下释义:
[0085]
concat:融合;
[0086]
upsampl:上采样;
[0087]
sgd:梯度下降法;
[0088]
msra:多尺度注意力模块;
[0089]
onnx:open neural network exchange,开放神经网络交换;
[0090]
实施例1
[0091]
为了便于理解,请参阅图1,本发明提供的一种火灾烟雾火焰图像识别方法的一个实施例,包括以下步骤:
[0092]
步骤s1:创建火灾烟雾火焰图像数据集;
[0093]
步骤s2:对yolov5s模型改进得到用于识别火灾烟雾火焰图像的火灾识别模型;
[0094]
步骤s3:对火灾烟雾火焰图像数据集进行数据增强,将通过数据增强后的数据集训练集输入到火灾识别模型进行训练得到训练好的火灾识别模型;
[0095]
步骤s4:将数据集输入至训练好的火灾识别模型中,得到火灾烟雾火焰图像的识别结果,判断是否发生火灾;
[0096]
步骤s2具体为:s21:根据火灾实际情境以及检测要求对yolov5s模型进行结构改进;火灾识别模型由backbone网络、neck网络和prediction三部分组成;backbone网络使用深度可分离卷积;
[0097]
s22:在backbone网络的底层添加关注通道数的注意力机制模块;
[0098]
s23:在火灾识别模型的neck网络引入无参数注意力机制模块;无参数注意力机制模块由依次连接的激活函数和能量函数组成。
[0099]
本发明训练好的火灾识别模型可以移植到边缘智能设备,使边缘智能设备在其性能允许的范围内达到最好的发挥,实现火灾识别模型对火灾更加精准实时的识别,为智慧消防提供有效解决方案。
[0100]
实施例2
[0101]
具体地,在实施例1的基础上,结合具体的实施例子对方案进行说明,进一步体现本方案的技术效果。具体为:
[0102]
本实施例所提供的基于改进的yolov5s的边缘智能的火灾烟雾火焰图像识别方法,包括以下步骤:
[0103]
步骤s1:创建火灾烟雾火焰图像数据集;采集真实火灾场景日照光、夜间红外下的视频数据,通过每隔1s切帧获取火灾烟雾火焰图像,对火灾烟雾火焰图像进行筛选,选出其中有火灾烟雾火焰目标的图片。
[0104]
步骤s2:对yolov5s模型改进得到用于识别火灾烟雾火焰图像的火灾识别模型;
[0105]
步骤s21:对yolov5s模型进行结构改进;火灾识别模型由backbone网络、 neck网络和prediction三部分组成;火灾识别模型的backbone网络使用深度可分离卷积;
[0106]
s22:在backbone网络的底层添加关注通道数的注意力机制模块;
[0107]
s23:在火灾识别模型的neck网络引入无参数注意力机制模块;无参数注意力机制模块由依次连接的激活函数和能量函数组成。
[0108]
具体的,backbone网络包括依次连接的第一卷积层、两个第一模块1、两个第二模块1、第三模块1、第四模块1、第五模块1、六个第六模块1;其中,两个第一模块1、两个第二模块1的卷积核均为3x3,步长均为2;第三模块1、第四模块1卷积核均为3x3;第五模块1、六个第六模块1的卷积核均为5x5,六个第六模块1的步长为6;
[0109]
neck网络包括依次连接的第二卷积层、第一上采样层、第一融合层、三个第一模块3、第三卷积层、第二上采样层、第二融合层、三个第二模块3、第一模块4、第七模块1、第三融合层、三个第三模块3、第二模块4、第八模块1、第四融合层、三个第四模块3、第三模块4;其中,三个第一模块3、三个第二模块3、三个第三模块3、三个第三模块3的步长为3;第七模块1、第八模块1 的卷积核均为5x5;
[0110]
所述第三模块1的输出端和第二融合层的输入端连接,所述第五模块1的输出端和第一融合层的输入端连接,所述第三卷积层的输出端和第三融合层的输入端连接,所述第二卷积层的输出端和第四融合层的输入端连接。
[0111]
具体的,两个第一模块1、两个第二模块1、第三模块1、第四模块1、第五模块1、六个第六模块1、第七模块1、第八模块1:均包括依次连接的逐层卷积层、逐点卷积层、全局平均池化层、第一全连接层和第二全连接层;其中,逐层卷积层、逐点卷积层、第一全连接层使用silu激活函数,第二全连接层使用 h-sigmoid激活函数;深度可分离卷积分为逐层卷积层、逐点卷积层;全局平均池化层、第一全连接层和第二全连接层构成一个关注通道数的注意力机制模块;
[0112]
模块2:包括采用多残差依次连接的卷积层、第一最大池化层、第二最大池化层、第三最大池化层、融合层;
[0113]
三个第一模块3、三个第二模块3、三个第三模块3、三个第三模块3:均由 7个或5个依次连接的卷积层以及一个融合层组成;
[0114]
第一模块4、第二模块4、第三模块4:为一个关注三维空间的无参数注意力机制模块,由依次连接的sigmoid激活函数和能量函数组成。
[0115]
训练过程:
[0116]
步骤s3:使用可视化的图像矩形框标注工具labelimg对日夜间火灾中的烟雾和火焰进行标注,获得目标物的坐标、宽高及目标物名称等信息,以xml文件形式保存来制成火灾烟雾火焰图像数据集中火灾烟雾火焰图像对应的标签,并构造类烟、类火样本;火灾烟雾火焰图像数据集中白天火灾烟雾火焰数据集作为训练集,夜晚火灾烟雾火焰数据集作为验证集,类烟、类火样本作为测试集;将火灾烟雾火焰数据集的训练集、验证集和测试集按比例划分为8:1:1;
[0117]
s31:训练集输入到火灾识别模型中,根据预设参数与预设训练迭代次数进行特征提取,并将火灾烟雾火焰图像划分成若干个特征点;
[0118]
s32:将特征点进行位置偏移并根据落入疑似火灾区域的特征点给出多个预测框;通过预测框的得分排序筛选出满足置信度的预测框,并通过非极大值抑制防止同一种类的预测框堆积并筛选出得分最大的预测框,从而获得最优的火灾烟雾火焰位置;
[0119]
火灾所处环境复杂,且周围外界天气、光照条件等环境也会发生变化,此时,对日夜间火灾烟雾火焰数据集进行mosaic数据增强,将火灾烟雾火焰图像通过随机缩放、随机裁剪、随机排布的方式进行拼接,从而极大的丰富了被检测物体的背景信息。
[0120]
根据日夜间火灾烟雾火焰数据集特点,对于anchor-based的yolov5s模型,火灾识别模型无需对对象边界框预设锚定框进行单独额外操作,而是使用自适应锚定框,在每次训练时,自适应的计算不同训练集中的最佳锚框值,从而获得最佳锚框;
[0121]
s33:对训练集中的火灾烟雾火焰图像进行重新贴灰条零填充处理以使得火灾烟
雾火焰图像的长宽相同,通过训练过程中火灾识别模型生成的预测框,使用基于ciou
loss
损失函数的非极大值抑制,获取置信度最大的火灾烟雾火焰预测框;
[0122]
将日夜间火灾烟雾火焰数据集中训练集输入到火灾识别模型中进行训练;在网络训练之前,采用msra初始化且不加载任何预训练权重;训练时,输入的图片张量为(640,640,3),采用sgd优化器、余弦退火学习率(cos-lr)进行训练,初始化学习率为0.01,权重衰减为0.0005,sgd动量为0.9,训练批次为8,训练总迭代次数300次;训练过程中最后100次迭代每10次迭代保存一次训练参数;
[0123]
s34:在训练结束后,将整个火灾识别模型迭代训练过程中验证集损失最小的模型参数作为火灾识别模型的预测参数,得到训练好的火灾识别模型。
[0124]
步骤s4:如图8所示,对于训练好的火灾识别模型进行格式转换得到所需精度的onnx模型,选择单批次输入为32,精度选择fp16,将onnx模型转为合适的边缘智能模型,将边缘智能模型部署到边缘智能设备,对边缘智能设备端拍摄的实时视频处理成火灾烟雾火焰图像输入至火灾识别模型,在边缘智能设备的边缘端完成对火灾烟雾火焰的高效识别与实时检测,边缘智能模型对火灾识别模型的输出进行解码得到火灾烟雾火焰的类别、置信度分数和所在位置。
[0125]
通过火灾烟雾火焰的类别区分火焰和烟雾,置信度分数为烟雾或火焰识别的精度,从图中可以直接看到火灾烟雾火焰的所在位置。
[0126]
边缘智能设备安装在火灾易发生区域进行火灾实时监控,对拍摄的视频处理成帧图片,帧图片作为火灾烟雾火焰图像,将火灾烟雾火焰图像重新贴灰条零填充处理成460
×
460大小:当火灾烟雾火焰图像的长度不足460时对长度进行贴灰条零填充;当火灾烟雾火焰图像的宽度不足460时对宽度进行贴灰条零填充,保证图片的长宽相同,使得火灾烟雾火焰图像不失真,最后将贴灰条零填充处理的火灾烟雾火焰图像送入边缘智能端的火灾识别模型中进行检测。
[0127]
如图7所示,火灾烟雾火焰图像输入到火灾识别模型中,火灾烟雾火焰图像通过backbone网络进行特征提取:经过第一卷积层、两个第一模块1、两个第二模块1、第三模块1得到64
×
64特征图,64
×
64特征图经过第四模块1、第五模块1得到128
×
128特征图,128
×
128特征图经过六个第六模块1、模块2得到 256
×
256特征图;
[0128]
此时,如图3所示,火灾烟雾火焰图像经过逐层卷积、逐点卷积以及全局平均池化层、第一全连接层和第二全连接层;在本实施例中,仅对第一全连接层和第二全连接层使用可选项以满足火灾识别模型的识别高效性与准确性的均衡,更好地提取火灾烟雾火焰的特征。此时,其中,逐层卷积层、逐点卷积层、第一全连接层使用silu激活函数,第二全连接层使用h-sigmoid激活函数,可选项即为关注通道数的注意力机制模块。
[0129]
64
×
64特征图用于检测火灾大目标,128
×
128特征图用于检测火灾中等目标,256
×
256用于检测火灾小目标;64
×
64特征图经过模块2进行特征融合;再将三个特征图输入到neck网络进行进一步加强特征提取,通过无参数注意力机制模块来对火灾烟雾火焰图片进行加强特征提取;其中,如图6所示,无参数注意力机制模块(即模块4)由依次连接的激活函数和能量函数组成;如图4所示,sppf 快速特征金字塔包括采用多残差依次连接的卷积层、第一最大池化层、第二最大池化层、第三最大池化层、融合层,第一最大池化层、第二最大池化层、第三最大池化层的池化核分别是5
×
5、9
×
9、13
×
13。
[0130]
neck网络;256
×
256特征图经过模块2进行特征融合后通过第二卷积层进行卷积、第一上采样层进行上采样得到上采样特征图,上采样特征图与128
×
128 特征图进行特征融合,得到第一特征融合图;第一特征融合图依次通过三个第一模块3、第三卷积层、第二上采样层后与64
×
64特征图进行特征融合,得到第二特征融合图;第二特征融合图依次通过三个第二模块3、第一模块4后获得64
×
64 输出特征图;
[0131]
第二特征融合图依次通过三个第二模块3、第一模块4、第七模块1后与第一特征融合图依次通过三个第一模块3、第三卷积层的特征图进行特征融合,得到第三特征融合图;第三特征融合图依次经过三个第三模块3、第二模块4获得 128
×
128输出特征图;
[0132]
第三特征融合图依次经过三个第三模块3、第二模块4、第八模块1后与经过第二卷积层的256
×
256特征图进行特征融合操作,得到第四特征融合图;第四特征融合图通过三个第四模块3与第三模块4,从而获得256
×
256输出特征图;
[0133]
将64
×
64输出特征图、128
×
128输出特征图、256
×
256输出特征图输入到 prediction进行目标分类检测;若出现火情时使用基于引入惩罚系数的ciou
loss
损失函数的非极大值抑制,置信度阀值设置为0.5,从而得到置信度最大的火灾烟雾火焰预测框,实现火灾烟雾火焰的精准识别。
[0134]
实施例3
[0135]
具体地,在实施例2的基础上,结合具体的实施例子对方案进行说明,进一步体现本方案的技术效果。具体为:
[0136]
步骤s23中使用的激活函数为silu激活函数,公式如下:
[0137]
silu(x)=x*sigmoid(x)
[0138]
其中,sigmoid激活函数表示为:
[0139][0140]
h-sigmoid激活函数为sigmoid激活函数的分段性近似表示,公式为:
[0141][0142]
其中,x表示输入单元。
[0143]
步骤s23中所述能量函数,其计算公式为:
[0144][0145]
其中,n=h
×
w为单一通道上的神经元数量,t为目标神经元,oi为其他神经元,系数γ=10-4
,每个神经元的重要性通过计算获得。
[0146]
本发明结合日夜间火灾烟雾火焰真实场景及需要部署到边缘智能设备的需要,在火灾监控区域发生火情时,部署火灾识别模型的边缘智能设备通过交换机、云计算服务器、火灾监测系统平台进行联动,如图9所示,通过数据可视化呈现火灾发生的实时信息、火灾
报警信息与火灾发生的地理位置信息等信息,为智慧消防提供有效解决方案。
[0147]
表1不同模型的识别效果对比
[0148][0149]
其中,model指不同的模型,params指不同的模型占用内存大小,map指火灾烟雾火焰图像中的火灾烟雾识别和火焰识别的平均精度。
[0150]
如图10所示,通过本发明部署后的火灾识别模型对火灾烟雾火焰图像进行识别,可见对火灾烟雾火焰图像中的火焰识别的精度为0.89,对火灾烟雾火焰图像中的烟雾识别的精度为0.70。对比其他模型,可见本发明火灾识别模型占用内存小且具有良好的识别效果。
[0151]
需要说明的是,无参数注意力机制模块关注三维空间。
[0152]
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
当前第1页1 2 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1