时间:2024-06-19
汪睿卿,王慧琴,王可
融合细节特征与混合注意力机制的火灾烟雾检测
汪睿卿,王慧琴*,王可
(西安建筑科技大学 信息与控制工程学院,陕西 西安 710311)
针对卷积神经网络高层特征图中细节特征被削弱造成烟雾图像底层特征丢失的问题,提出一种融合细节特征与混合注意力机制的YOLOv4改进算法。设计了细节特征融合模块,将主干网络中的底层细节特征引入高层特征图,得到具有丰富多尺度信息的融合特征。在通道和空间维度上采用混合注意力机制对融合特征的图权重进行重新赋值,在增强烟雾目标特征的同时抑制无关区域特征,使烟雾特征表达具有更好的鲁棒性。实验结果表明,本文算法的平均精确率、精确率和召回率相比YOLOv4算法分别提高了4.31%,1.21%,9.86%,同时保持了较快的检测速度。本文算法能够有效提取烟雾目标的整体特征,对于复杂背景下的火灾烟雾检测任务更为适用。
烟雾检测;深度学习;YOLOv4算法;特征融合;混合注意力机制
当前,主流的火灾探测方法仍然依靠传统的传感器来监测特定物理量,如烟雾颗粒、环境温度、相对湿度和辐射光强等。由于火灾燃烧产物的生成和传播需要一定时间,因此,此类探测器可能会产生响应延迟,且难以在大空间建筑和室外环境正常工作[1]。火灾的早期阴燃阶段常伴有烟雾生成,实时检测火灾烟雾可对火灾的产生发出早期预警,及时发现早期火情,避免了因燃烧产物的传播造成的检测滞后,其检测范围相较传统传感器也更广,适用于大空间建筑和室外环境的火灾检测。此外,这种检测方式可节约大量人力资源并消除了人的主观错误判断对火灾预警的影响。
基于传统计算机视觉算法的视频烟雾检测主要可分为如下几个阶段:图像预处理、疑似区域提取、烟雾特征描述和烟雾识别[1]。Kim[2]等人利用高斯混合模型(Gaussian Mixture Model, GMM)作为背景估计算法提取烟雾区域,采用Adaboost算法检测候选区域的烟雾,在室外烟雾检测中取得了较好效果。Zhao[3]等人利用卡尔曼滤波分割候选烟雾区域并采用局部二元模式(Local Binary Motion Pattern, LBMP)定义烟雾的纹理特征,提出了一种基于动态纹理特征的烟雾检测算法。Wang[4]等人采用基于模糊逻辑的数据增强策略增强了图像的灰度动态范围,提取并融合了烟雾图像的静态和动态特征,将这些特征向量归一化并输入到支持向量机(Support Vector Machine, SVM)模型中进行识别。为有效提取烟雾图像的纹理特征,Ye[5]等人将视频帧序列视作独立的多维数据,设计了一种融合Surfacelet变换和3D-隐马尔可夫树模型(Hidden Markov Tree, HTM)的烟雾动态特征描述子,这种特征描述子更接近烟雾图像动态纹理的本质特征。
上述视频烟雾检测方法基于人工设计复杂的烟雾特征,人工设计的烟雾特征在很大程度上依赖于设计者的先验知识,具有较强的可解释性但是泛化性很差,仅适用于简单的火灾场景[6]。卷积神经网络(Convolutional Neural Network, CNN)作为最重要的深度学习模型之一,具有良好的特征提取能力和泛化能力,随着硬件算力的提升和大规模数据集的出现,卷积神经网络的工程化应用得以实现,成为计算机视觉领域的主流方法之一[7-8]。Tao[9]等人基于AlexNet[10]设计了一个端到端的火灾烟雾识别网络,在测试集上实现了99.4%的检测率,优于传统检测算法。为缓解训练样本不平衡造成的过拟合,Yin[11]等人将批量归一化(Batch Normalization, BN)引入烟雾识别网络,有效提高了识别精度。为了提高特征提取效果,Gu[12]等人提出了一个由两个子网络组成烟雾检测网络,并以串行形式融合两个子网络的输出。随着卷积神经网络的发展,诸多性能优异的目标检测网络也被应用到火灾烟雾检测中。He[13]等人将Faster R-CNN[14]中的特征提取网络替换为深度残差网络(Residual Network, ResNet)[15]并将特征金字塔网络(Feature Pyramid Network, FPN)集成到区域候选网络(Regional Proposal Networks, RPN)中,相比原始算法在烟雾和火焰的识别精度上均有提高。端到端的单阶段检测算法结构简单,具有较强的实时性。Cai[16]等人通过将通道注意力模块和正则化模块引入 YOLOv3[17]提出了YOLO-SMOKE算法,在提高了精确率的同时增强了算法的鲁棒性。Gagliardi[18]等人将卡尔曼滤波器和改进的轻量级SSD[19]算法相结合,设计了一个级联的端到端烟雾检测算法,在嵌入式设备上实现了较快的检测速度。吴凡[20]等人通过改进三维卷积神经网络,提出了一种时空域烟雾检测算法,引入了时域变化特征,提高了烟雾检测准确率。
卷积神经网络可以获取丰富的图像特征,其中底层特征图包含了图像的纹理、边缘等细节特征,高层特征图则保留了抽象的语义信息[21]。在火灾烟雾检测任务中,底层细节特征有利于烟雾目标准确定位,高层语义特征则有利于烟雾目标正确分类。随着网络层数的增加,特征图包含的高层语义信息愈发抽象,同时分辨率降低,特征图中关于烟雾目标的底层细节特征将会被削弱。
本文提出了一种基于YOLOv4(You Only Look Once version4)[22]网络的火灾烟雾检测算法,通过融合特征提取网络CSPDarknet53各层级特征图,得到同时具有细粒度特征和语义信息的特征表示,并结合CBAM混合注意力机制[23]在融合后特征图的空间和通道维度上进行权重重新分配。实验结果表明,本文算法在保持较快检测速度的同时提高了火灾烟雾的检测精度。
作为YOLO系列算法的后续版本,YOLOv4算法继承了前代算法的思想,将目标检测任务视作回归问题构建了一个端到端的网络模型,在检测速度和检测精度上均有优异表现。YOLOv4的网络结构如图1所示,其主要由CSPDarknet53(Cross Stage Partial Connections Darknet53)、空间金字塔池化(Spatial Pyramid Pooling, SPP)[24]、路径聚合网络(Path Aggregation Network, PANet)[25]和YOLO检测头(YOLO Head)等部分组成。其中,基于Darknet53[17]特征提取网络并引入CSPNet(Cross Stage Partial Network)[26]思想提出了新的骨干网络CSPDarknet53。CSPDarknet53共有5个CSPDarknet模块,生成的5个层级特征图对应原始输入的下采样率分别为2,4,8,16,32,特征图对应的通道数分别为64,128,256,512,1 014。YOLOv4算法的颈部(Neck)由SPP和 PANet结构组成,PANet使用了更短的路径对特征图进行融合,SPP模块通过最大池化(Max Pooling)操作增大了感受野,在高层特征图融合了全局特征和局部特征。
图1 YOLOv4 网络结构图
更深层的卷积可提高卷积神经网络的语义表达和特征提取能力,然而高层特征图中关于图像的细节特征将会被削弱,不利于目标的有效定位,而且真实火灾烟雾场景中的复杂背景和遮挡将会对烟雾检测造成干扰。本文通过提取CSPDarknet53特征提取网络生成的5个层级的特征图,将浅层细节特征融合至高层特征图,获得具有丰富多尺度信息的高质量烟雾特征。随后,使用混合注意力机制对融合后特征图在通道域和空间域进行权重重新分配,使得无效背景信息被进一步抑制,提高了烟雾目标区域的特征表达效果,增强了网络特征表达的鲁棒性。
CSPDarknet53特征提取网络由Darknet53网络改进而来,其中包括5个CSPDarknet结构,对应输出5个层级不同尺寸的特征图。YOLOv4算法中提取3个高层的特征图将其输入至PANet中进行融合,最后经过YOLO Head结构得到输出结果。通用的目标检测算法旨在处理多类别的目标检测任务,底层的细节特征如纹理、边缘和轮廓等不足以有效区分不同类目标,因此也较少被直接用于表征目标特征信息。火灾烟雾检测是一种单类别目标检测,图像底层的细节特征有利于区分烟雾目标和图像背景;此外,常见的烟雾场景多样复杂,烟雾的扩散也会造成特征的不明显。为增强烟雾区域特征,设计了一个细节特征融合模块(Detailed Feature Fusion Module, DFF),通过统一特征图的尺寸将底层特征图和高层特征图在通道维度进行拼接,实现了细节特征与语义特征的融合,如图2所示。
图2 细节特征融合模块
细节特征融合模块是由两个特征金字塔(Feature Pyramid Networks)[27]结构组成的特征金字塔网络。两个特征金字塔分别为自顶向下(Top-down)支路和自底向上(Bottom-up)支路,同时接收底层特征图和高层特征图,对尺寸较大的底层特征图采用最大池化(Max Pooling)操作进行下采样,对尺寸较小的高层特征图以双线性插值法(Bilinear Interpolate)进行上采样,分别生成两个尺寸一致的特征图。常见的特征融合方式主要包括通道拼接、逐元素相乘和逐元素相加3种形式,为避免特征金字塔获取的细节特征被高层特征覆盖造成细节特征丢失,对生成的特征图采用通道拼接的方式进行融合,得到信息更丰富的强鲁棒性多尺度特征。以底层特征图和高层特征图分别经过两次下采样和上采样为例,细节特征融合模块可表示为式(1):
其中:和分别表示输入特征金字塔底层和高层特征图;和分别表示最大池化运算和双线性插值,下标和表示下采样和上采样中的尺度因子;表示沿通道维度拼接操作,融合过程如图3所示。
以实验中设置的输入图片尺寸(416,416,3)为例,CSPDarknet53特征提取网络共生成了5个尺寸分别为(208,208,64),(104,104,128),(52,52,256),(26,26,512),(13,13,1 024)的特征图,分别为scale1,scale2,scale3,scale4,scale5。scale5是CSPDarknet53网络经特征映射输出的最高层特征图,其通道维长度为1 024,具有丰富的语义信息;但是scale5特征图的分辨率较低,其长宽均为13,缺乏足够的细节特征。因此本文选择将scale5特征图同最底层特征图scale1相融合,使用最短路径引入细节特征,以获得更丰富的具有尺度差异的特征表达并尽可能保留原始特征,同理特征图scale2和scale4相融合。具体来看,DFF模块1同时输入特征图scale2和特征图scale4,首先分别对这两个特征图进行两次尺度因子为2的下采样和上采样,经过卷积操作将通道数调整为128,最后在通道维度进行拼接生成了尺寸为(52,52,256)的融合特征图;DFF模块2则对scale1和scale5特征图进行了融合,得到的融合特征图尺寸同DFF模块1。
表1细节特征融合模块参数设置
Tab.1 Parameters setting of DFF modules
通过细节特征融合可将烟雾图像底层细节特征引入高层特征图,但是通过通道拼接方式得到的特征图可能会带来冗余信息及无关背景信息,因此引入注意力机制对融合特征图进行权重重新分配,以提升烟雾特征的表达效果,增强网络特征表达的鲁棒性。注意力机制通过调整特征图的权重达到抑制无关区域特征和增强目标区域特征的目的,提高了网络的特征表达效果。卷积神经网络中的注意力机制可分为通道注意力机制、空间注意力机制和混合注意力机制3种。通道注意力和空间注意力分别在通道域和空间域对特征图加以权重,混合注意力机制则兼顾这两点。本文在此处采用的CBAM[20]是一种典型的混合注意力机制,通过池化操作获得通道域和空间域权重,并以串行形式将这两部分权重与输入特征图进行逐元素相乘,如图4所示。
此外,为了缓解混合注意力机制中特征映射过程造成的特征丢失,避免出现网络退化问题,本文对输入混合注意力机制的特征图通过残差连接方式(Shortcut Connections)[15]同混合注意力机制的输出特征图进行逐元素相加,如式(5)所示:
生成最终的残差混合注意力特征图。
CBAM机制的细节特征融合模块(Detailed Feature Fusion module with CBAM, DFF-CBAM)由DFF模块和CBAM模块串联组成,如图5所示。DFF-CBAM模块中对DFF输出的特征图分别在通道域和空间域加以权重,融合了烟雾图像底层细节特征并对特征图通道间和空间位置的特征分布进行了学习,在烟雾特征得到进一步强化的同时对背景干扰信息进行了抑制,使得图像中烟雾区域特征对网络输出结果具有更大的贡献,得到了更具鲁棒性的特征表达。
图5 引入CBAM的细节特征融合
本文算法的网络结构如图6所示,算法的主干网络为CSPDarknet53特征提取网络,颈部由引入CBAM的细节特征融合模块(DFF-CBAM)和PANet组成,头部由YOLO Head组成。输入图像经CSPDarknet53得到5个不同尺寸的特征图,底层的特征图scale1和scale2分别通过DFF-CBAM模块与高层的scale5和scale4融合,得到的融合特征图引入了底层细节特征同时在空间域和通道域对权重进行了重新赋值,对图像烟雾区域特征进行增强,生成了信息更丰富且更具鲁棒性的特征表达。随后,融合特征图和CSPDarknet53输出的scale3特征图依次经过PANet和YOLO Head结构得到最终的多尺度预测结果。本文算法中提出的DFF-CBAM模块直接将底层特征图和高层特征进行融合,保留了更多的原始特征,得到了信息更丰富的融合结果。本文算法移除了SPP模块,减少了冗余操作并降低了模型参数量。
图6 网络整体结构
本文实验的硬件环境为AMD Ryzen9 5900x处理器,32 GB内存,NVIDIA GeForce RTX3090显卡;软件环境为Windows 10操作系统,Pytorch 1.8.1深度学习框架,CUDA 11.1,Python 3.6。
训练中采用自适应动量估计(Adaptive Moment Estimation, Adam)优化器,批量大小(Batch Size)设置为16,初始学习率设置为0.001,每个训练周期(Epoch)结束后学习率调整为上一次的0.92倍。
本文采用精确率(Precision)、召回率(Recall)和平均精确率均值(mAP)对模型进行评估,因本文检测目标为单类别目标,故mAP即为平均精确率(AP),公式如下:
本文算法的检测结果示例如图7所示,包括了室内火灾烟雾、室内灯光干扰下烟雾、室外小目标烟雾、室外复杂背景烟雾、森林火灾烟雾和夜间火灾烟雾等常见火灾烟雾场景。结果表明,在多个实际场景中,本文算法均能以较高置信度准确检测出完整的烟雾目标。
图7 检测结果示例。(a)室内烟雾;(b)室内灯光干扰烟雾;(c)室外小目标烟雾;(d)室外复杂背景烟雾;(e)森林火灾烟雾;(f)夜间火灾烟雾。
实验中发现,部分室外烟雾目标易受类烟物体干扰,训练集的完备性也对网络训练有较大的影响,因此算法在少数测试样本上的检测结果并未达到预期。典型的未成功检测图像如图8所示,图中烟雾目标整体轮廓较模糊,且和昏暗的天空背景相连,难以有效区分;烟雾区域内多呈半透明的白色,缺少足够的纹理特征,易受植被和裸露的岩石等干扰。因此,在这种情况下,算法对于烟雾目标的整体把握较差,即使检测出的部分烟雾目标其置信度也较低,不能判定为成功检测。
图8 未成功检测图像
为充分说明本文算法中设计和改进的模块对火灾烟雾检测效果的影响,设计消融实验以验证各模块的有效性,实验结果如表2所示。
表2消融实验结果
Tab.2 Experimental results of ablation study
消融实验中除YOLOv4算法以外均删去SPP模块。加入DFF模块后,在引入烟雾图像细节特征的同时也带来部分背景无关信息,使得算法精确率相比于YOLOv4算法下降了1.62%,但召回率提升了7.2%。加入CBAM模块后,算法更聚焦于烟雾目标区域,使得精确率相较于YOLOv4算法提升了1.16%,同时召回率也得到了提升。值得注意的是,实验中在删去SPP模块并加入CBAM模块之后,检测速度比原始YOLOv4算法更快,这也表明了CBAM机制在引入较少参数的情况下有效提升了模型性能。
为全面评估本文算法的有效性,设计实验与当前主流的深度学习目标检测算法和基于深度学习的火灾烟雾检测算法进行对比,实验结果如表3所示。
表3与其他检测算法性能对比
Tab.3 Performance comparison with other algorithms
实验结果中,本文算法的精确率、召回率和平均精确率均优于对比算法,检测速度相较于改进前的YOLOv4算法略有下降,但优于两阶段目标检测算法。文献[29]和文献[30]分别基于单阶段算法SSD和YOLOv4针对烟雾检测任务进行改进,检测性能相较原始算法均有提升。其中文献[29]中采用了递进池化和反卷积操作指导特征提取和融合。文献[30]则采用嵌入通道注意力机制的方式增强了YOLO检测头的信息提取能力。
图9为YOLOv4算法和本文算法的PR曲线图,图中阴影面积即为平均精确率。通过细节特征融合和引入注意力机制,本文算法在相同实验条件下相比于YOLOv4算法的平均精确率提高了4.31%。
图9 PR曲线。(a) YOLOv4算法PR曲线;(b)本文算法PR曲线。
图10和图11分别为精确率曲线和召回率曲线图,计算精确率和召回率时设置置信度阈值为0.5。本文算法的精确率和召回率相比于YOLOv4算法分别提高1.21%和9.86%。图11的召回率曲线显示,随着置信度阈值的提高,本文算法的召回率相比于YOLOv4有了更大的提升,这表明本文算法对于难分烟雾样本有更好的检测效果。综合上述对比结果可知,本文算法在烟雾检测方面具有更好的性能。细节特征融合增强了烟雾图像的特征表达效果,提升了算法对烟雾目标的定位能力;同时注意力机制可抑制无关的图像背景特征并对烟雾特征赋予更大的权重,减少了检测结果中假负例的数量,从而使得召回率相比于改进前有明显提高。
图10 精确率曲线
图11 召回率曲线
为了进一步分析本文算法在烟雾图像特征表达上相较YOLOv4算法的优势,设计了特征图可视化对比实验并利用CAM[31]方法绘制热力图。
图12是网络中5个层级特征图的可视化对比实验结果,分别为scale1、scale2、YOLO Head1、YOLO Head2和YOLO Head3,对应尺寸大小为(208,208),(104,104),(52,52),(26,26),(13,13)。特征图随着网络层数的加深尺寸逐渐变小,并在运算过程中逐渐将细节特征映射到高层语义特征。图12中本文算法的底层特征图相较于YOLOv4算法提取了更多明显的细节信息,如纹理和边缘轮廓等。随着感受野的增大,细节信息逐渐稀疏化,特征图分辨率降低,纹理和轮廓等愈发难以辨认,但是语义信息得到进一步增强,在目标区域中心形成聚焦并逐步映射至目标整体区域。在高层特征图中,得益于混合注意力机制对特征图空间维度和通道维度权重的重新分配,本文算法在烟雾目标中心区域产生了更高的激活值,且激活值的分布范围更符合实际图像中烟雾的分布。
图12 特征图可视化
图13是两种算法的热力图对比实验结果,通过热力图可以看出,由于烟雾目标的视觉特征较差且烟雾背景复杂,两种算法在检测过程中均不同程度地受到了影响,YOLOv4算法在烟雾目标区域的激活值较低且分布较为杂乱,在背景区域的激活范围和强度明显高于本文算法,难以有效反映出真实烟雾目标位置;本文算法则相对更准确地在烟雾目标区域形成聚焦产生较高的激活值,并对背景区域的激活进行了抑制。由此可见,本文提出的基于注意力机制的细节特征融合方法有效增强了烟雾目标的整体特征,能够改善烟雾检测中烟雾目标特征不明显和背景复杂、干扰信息较多的问题。
图13 热力图对比
本文针对火灾烟雾检测中高层特征图的细节特征被削弱且背景干扰较多的问题,基于YOLOv4提出了一种融合细节特征与注意力机制的火灾烟雾检测算法。通过引入细节特征,提高了网络的特征提取和表达能力;利用CBAM机制对融合特征图进行权重重新赋值,得到了更具鲁棒性的特征表达。与YOLOv4算法相比,在保持较高检测速率的同时,本文算法的平均精确率、精确率和召回率分别提高了4.31%,1.21%,9.86%。下一步工作将优化特征融合过程,减少冗余操作并降低模型参数量,设计适用于嵌入式设备的轻量化火灾烟雾检测网络。
[1] 史劲亭,袁非牛,夏雪.视频烟雾检测研究进展[J].中国图象图形学报,2018,23(3):303-322.
SHI J T, YUAN F N, XIA X. Video smoke detection: a literature survey[J]., 2018, 23(3): 303-322. (in Chinese)
[2] KIM H, RYU D, PARK J. Smoke detection using GMM and adaboost[J]., 2014, 3(2): 123-126.
[3] ZHAO Y Q, ZHOU Z, XU M M. Forest fire smoke video detection using spatiotemporal and dynamic texture features[J]., 2015, 2015: 40.
[4] WANG Y B. Smoke recognition based on machine vision[C]2016. Xi'an, China: IEEE, 2016: 668-671.
[5] YE W, ZHAO J H, WANG S,. Dynamic texture based smoke detection using Surfacelet transform and HMT model[J]., 2015, 73: 91-101.
[6] 李欣健,张大胜,孙利雷,等.复杂场景下基于CNN的轻量火焰检测方法[J].模式识别与人工智能,2021,34(5):415-422.
LI X J, ZHANG D S, SUN L L,. CNN-based lightweight flame detection method in complex scenes[J]., 2021, 34(5): 415-422. (in Chinese)
[7] 林景栋,吴欣怡,柴毅,等.卷积神经网络结构优化综述[J].自动化学报,2020,46(1):24-37.
LIN J D, WU X Y, CHAI Y,. Structure optimization of convolutional neural networks: a survey[J]., 2020, 46(1): 24-37. (in Chinese)
[8] 夏雪,袁非牛,章琳,等.从传统到深度:视觉烟雾识别、检测与分割[J].中国图象图形学报,2019,24(10):1627-1647.
XIA X, YUAN F N, ZHANG L,. From traditional methods to deep ones: review of visual smoke recognition, detection, and segmentation[J]., 2019, 24(10): 1627-1647. (in Chinese)
[9] TAO C Y, ZHANG J, WANG P. Smoke detection based on deep convolutional neural networks[C]//2016. Wuhan, China: IEEE, 2016: 150-153.
[10] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks[C]25. Lake Tahoe: Curran Associates Inc., 2012: 1097-1105.
[11] YIN Z J, WAN B Y, YUAN F N,. A deep normalization and convolutional neural network for image smoke detection[J]., 2017, 5: 18429-18438.
[12] GU K, XIA Z F, QIAO J F,. Deep dual-channel neural network for image-based smoke detection[J]., 2020, 22(2): 311-323.
[13] HE Z X, XIE L P, HUA B C,. Joint detection of smoke and flame in photovoltaic system based on deep learning[C]2020(). Shanghai, China: IEEE, 2020: 6067-6071.
[14] REN S Q, HE K M, GIRSHICK R,. Faster R-CNN: towards real-time object detection with region proposal networks[J]., 2017, 39(6): 1137-1149.
[15] HE K M, ZHANG X Y, REN S Q,. Deep residual learning for image recognition[C]2016. Las Vegas: IEEE, 2016: 770-778.
[16] CAI W B, WANG C Y, HUANG H G,. A real-time smoke detection model based on YOLO-SMOKE algorithm[C]2020. Fuzhou, China: IEEE, 2020: 1-3.
[17] REDMON J, FARHADI A. YoLOv3: an incremental improvement[J]., 2018:1804.02767.
[18] GAGLIARDI A, DE GIOIA F, SAPONARA S. A real-time video smoke detection algorithm based on Kalman filter and CNN[J]., 2021, 18(6): 2085-2095.
[19] LIU W, ANGUELOV D, ERHAN D,. SSD: single shot MultiBox detector[C]14. Amsterdam: Springer, 2016: 21-37.
[20] 吴凡,王慧琴,王可.时空域深度学习火灾烟雾检测[J].液晶与显示,2021,36(8):1186-1195.
WU F, WANG H Q, WANG K. Spatio-temporal deep learning fire smoke detection[J]., 2021, 36(8): 1186-1195. (in Chinese)
[21] 李红光,于若男,丁文锐.基于深度学习的小目标检测研究进展[J].航空学报,2021,42(7):024691.
LI H G, YU R N, DING W R. Research development of small object traching based on deep learning[J]., 2021, 42(7): 024691. (in Chinese)
[22] BOCHKOVSKIY A, WANG C Y, LIAO H Y M. YOLOv4: optimal speed and accuracy of object detection[J].:2004.10934, 2020.
[23] WOO S, PARK J, LEE J Y,. CBAM: convolutional block attention module[C]15. Munich, Germany: Springer, 2018: 3-19.
[24] HE K M, ZHANG X Y, REN S Q,. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]., 2015, 37(9): 1904-1916.
[25] LIU S, QI L, QIN H F,. Path aggregation network for instance segmentation[C]2018. Salt Lake City, UT, USA: IEEE, 2018: 8759-8768.
[26] WANG C Y, LIAO H Y M, WU Y H,. CSPNet: a new backbone that can enhance learning capability of CNN[C]2020. Seattle, WA, USA: IEEE, 2020: 1571-1580.
[27] LIN T Y, DOLLÁR P, GIRSHICK R,. Feature pyramid networks for object detection[C]2017. Honolulu, USA: IEEE, 2017: 936-944.
[28] TAN M X, LE Q V. EfficientNet: rethinking model scaling for convolutional neural networks[C]36. Long Beach, CA, USA: PMLR, 2019: 6105-6114.
[29] 刘丽娟,陈松楠.一种基于改进SSD的烟雾实时检测模型[J].信阳师范学院学报(自然科学版),2020,33(2):305-311.
LIU L J, CHEN S N. Real-time smoke detection model based on improved SSD[J].(), 2020, 33(2): 305-311. (in Chinese)
[30] 谢书翰,张文柱,程鹏,等.嵌入通道注意力的YOLOv4火灾烟雾检测模型[J].液晶与显示,2021,36(10):1445-1453.
XIE S H, ZHANG W Z, CHENG P,. Firesmoke detection model based on YOLOv4 with channel attention[J]., 2021, 36(10): 1445-1453. (in Chinese)
[31] ZHOU B L, KHOSLA A, LAPEDRIZA A,. Learning deep features for discriminative localization[C]2016. Las Vegas, NV, USA: IEEE, 2016: 2921-2929.
Fire smoke detection combined with detailed features and hybrid attention mechanism
WANG Rui-qing,WANG Hui-qin*,WANG Ke
(,,710055,)
To solve the problem that the detailed features of the high-level feature map are weakened and the low-level features of the smoke image are lost, an improved YOLOv4 algorithm that combines the detailed features and the attention mechanism is proposed. The detail feature fusion module is designed, and the low-level features in backbone network are introduced into high-level features to obtain the fusion feature map with extensive multi-scale information. Then, a hybrid attention mechanism in two separate dimensions of channel and spatial is adopted, to reassign the weight of the fusion feature map. The smoke target features are enhanced the background features are suppersed, hence the proposed algorithm is robust in feature expression. The experimental results show that the average precision, precision and recall rate of the algorithm in this paper are increased by 4.31%, 1.21% and 9.86% respectively compared with the YOLOv4 algorithm, while maintaining a high detection speed. The proposed algorithm can effectively extract the overall features of smoke targets, and is suitable for smoke detection tasks in complex backgrounds.
smoke detection; deep learning; YOLOv4; feature fusion; hybrid attention mechanism
TP391
A
10.37188/CJLCD.2021-0325
1007-2780(2022)07-0900-13
2021-12-14;
2022-01-11.
陕西省自然科学基础研究计划(No.2021JM-377);陕西省科技厅科技合作项目(No.2020KW-012);陕西省教育厅智库项目(No.18JT006);西安市科技局高校人才服务企业项目(No.GXYD10.1)
Supported by Natural Science Basic Research Plan in Shaanxi Province (No. 2021JM-377); Science and Technology Cooperation Projects in Department of Science and Technology of Shaanxi Province(No. 2020KW-012); Think Tank Project in Department of Education of Shaanxi Province(No. 18JT006); Talent Service Enterprise Project of Science and Technology University in Xi'an City(No.GXYD10.1)
,E-mail:hqwang@xauat.edu.cn
汪睿卿(1996—),男,安徽安庆人,硕士研究生,2019于皖西学院获得学士学位,主要从事深度学习与计算机视觉等方面的研究。E-mail:wrq1216@163.com
王慧琴(1970—),女,山西长治人,博士,教授,2002年于西安交通大学获得博士学位,主要从事智能信息处理、信息理论与应用、信息技术与管理、数字建筑等方面的研究。E-mail:hqwang@xauat.edu.cn
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!