-
项目选用机载挂飞采集和无人机采集的中/长波红外车辆目标。由于典型车辆时敏目标尺寸为10×12,目标不是十分明显,很难被肉眼发现,可视为弱小目标。笔者采集背景覆盖了沙漠、城市、田野、公路、乡村等场景,同时具备云雾干扰场景。对目标进行了多角度采集,但实验中飞行高度较固定且样本数量受限,采集图像数量不足,因此需进行数据增广处理。另一方面,受探测器限制,采集图像分辨率为640×512,同幅图像中包含1~25个典型车辆时敏目标,并且在场景中存在小型建筑、树木、石墩、变压器等非典型目标混杂,具备较高的检测识别难度。
数据作为深度学习的驱动力,对于模型的训练至关重要。充足的训练数据不仅可以缓解模型在训练时的过拟合问题,而且可以进一步扩大参数搜索空间,帮助模型进一步朝着全局最优解优化。为在一定程度上模拟高速飞行其实时图像,对其进行分析,如表1所示。
表 1 单幅图像的模拟图像处理方法
Table 1. Analog image processing method for single image
Flight live image Analog image processing Aircraft falling at high speed Image magnification under fixed field of view Aircraft level flight Image translation Aircraft rotation Image rotation at various angles Aircraft shaking Image translation Infrared imagers are affected by temperature and weather Image contrast, brightness changes Aerodynamic effect of aircraft flying at high speed Image random blur, edge blur Aircraft is disturbed Image random occlusion 在表中图像处理方法的基础上,为解决红外车辆数据样本不足的问题,文中进行了单数据变形和多数据混合处理。对于单幅图像,进行了亮度变化、对比度变化、旋转、平移、放缩、翻转、裁剪、随机模糊、边缘模糊、随机遮挡等处理,并且将多张图像及进行随机拼接操作,以丰富数据,扩充样本同时防止网络出现过拟合现象,如图2所示。
-
针对平台资源受限,红外弱小目标不是十分明显,而且只有灰度信息的问题,文中以YOLOv5 s算法为基础,首先通过调整系数depth_multiple和系数width_multiple将YOLOv5 s网络进行轻量化剪裁,然后通过使用混合域注意力模块EPA改进YOLOv5算法原有的SPP模块、CSP模块,通过残差密集注意模块RDAB改进YOLOv5算法原有的SPP模块、Focus模块来对YOLOv5算法进行改进,来提高红外弱小目标检测效果,改进后的目标检测算法文中称为JH-YOLOv5-RDAB算法。其网络结构如图3所示。该部分主要包括基于YOLOv5的轻量化网络设计,基于混合域注意力模块(EPA)设计,基于注意力机制的残差密集块模块(RDAB)设计三部分内容。
-
神经网络由于神经元之间连接的数百万甚至更多的权重,模型存储的是权重参数并全部参与计算,这对嵌入式平台自身的计算资源也是一项巨大的挑战。由于平台资源受限,需要设计一个轻量化网络,本节以YOLOv5算法为基础进行轻量化网络设计。
2020年,由Ultralytics 提出的YOLOv5算法自面世以来就受到广泛关注,分为输入端、Backbone、Neck、Prediction四个部分。输入端部分算法增加了Mosaic数据增强和自适应锚框计算,Backbone部分增加了Focus结构和CSP结构,Neck部分采用FPN+PAN结构,Prediction部分使用GIOU_Loss损失函数。YOLOv5算法共有四种不同大小的模型:YOLOv5 s,YOLOv5 m,YOLOv5 l和YOLOv5 x。在COCO数据集上得到了较高的性能指标,其中YOLOv5 s网络模型权重最小,速度最快,但mAP精度也最低,适合大目标检测。YOLOv5 s网络结构如图4所示。
为了在轻量化与检测效果间找到一个较好的平衡,本项目基于YOLOv5 s算法进行改进。其最突出的特点是结构灵活,其引入了depth_multiple系数来控制模型的深度和width_multiple系数来控制卷积核的个数。系数depth_multiple用于backbone中的number≠1的情况下(number=1则表示功能背景层,比如说下采样Conv、Focus、SPP等),即在Bottleneck层使用以控制模型的深度,例如YOLOv5 s中设置为0.33,那么假设YOLOv5 l中有三个Bottleneck,则YOLOv5 s中就只有一个Bottleneck。系数width_multiple是用于设置卷积层的卷积核个数,例如YOLOv5 s设置为0.5,卷积核的个数都变成了设置的一半。
同一网络结构下参数设置越小检测精度越低,但为了达到极轻量化需求,选择牺牲一定了检测效果来获得极低的模型尺寸。文中选用的系数depth_multiple和系数width_multiple分别为0.20和0.25,在YOLOv5 s的基础上又减少了一半的层数,后续几节中将通过增加算子模块进一步提升检测效果。
-
注意力机制(Attention Mechanism)是一种通过模仿人脑来实现从大量输入信息中重点处理有用信息并忽略无关信息的机制[10],主要分为通道注意力和空间注意力。为了更准确地从红外弱小目标中提取有用信息,本节提出了一个基于混合域注意力模块(EPA),并将其融合到YOLOv5算法原有的SPP模块、CSP模块中,使得算法在有效捕获跨通道交互的信息的同时,更加关注与红外弱小目标相关的像素信息等信息特征。融合后的SPP模块、CSP模块结构图分别如图5与图6所示。
近年来,将通道注意力引入卷积块,在性能改进方面显示出巨大潜力。以SENet[11]为代表,通过学习每个卷积块的通道注意力,获得明显的性能增益。之后一些研究通过更复杂的通道依赖或结合额外的空间注意来改进,但伴随较高的模型复杂度计算负担。Qilong Wang[12]等在CVPR2020上提出了一种针对深度CNN的高效通道注意(ECA)模块,避免了降维,有效捕获了跨通道交互的信息,其结构如图7所示。
ECA模块是通道域的注意力机制,通道注意力机制对一个通道内的信息直接全局平均池化,其本质是给高权重在重点关注的通道上,以实现对更重要特征的最优关注,而忽略每一个通道内的局部信息,忽略关注空间上的重要位置,考虑目标像素与非目标像素的不同,这种做法其实也是比较暴力的行为。
因此在文中,对ECA模块进行改进,提出一种混合域注意力机制模块EPA,使得算法在有效捕获跨通道交互的信息的同时,更加关注与目标相关的像素信息等信息特征[13]。其结构如图8所示。
通过图8可知,EPA模块在ECA模块之后使用RELU激活函数与Sigmoid激活函数将上一步输入直接输入到两个卷积层中:
$$ PA = \sigma (C{{onv(}}\delta {{(}}C{{onv(F^*)}}))) $$ (1) 式中:
$F^* $ 为上一步的输出;Conv为卷积层;$ \delta $ 为RELU激活函数;$ \sigma $ 为Sigmoid激活函数。然后,对输入F和PA使用元素乘法:
$$ \overline F = F* \otimes PA $$ (2) -
红外图像类似于可见光的灰度图像,数值在[0,16383]之间。由于成像体制的差别,两者图像在图像灰度上差异较大,但在轮廓结构上具有一致性,如图9所示。与3通道的可见光图像相比,单通道的红外图像在浅层网络的特征提取尤为重要。同时,由于需要检测的目标为弱小目标,一般卷积神经网络无法应用于小尺寸目标的识别。为此,在本节提出了可以在不同层次上突出弱小目标,能够增加对红外弱小目标特性的特征提取的基于注意力机制的残差密集块模块(Residual dense attention block, RDAB),并将其融合到YOLOv5算法原有的Focus模块与SPP模块中,使得算法可以较好的提取红外弱小目标结构化特征,并对弱小目标的尺度变化具有鲁棒性。融合后的Focus模块、SPP模块结构图分别如图10与图11所示。
图 9 同一场景可见光图像(左)和红外图像(右)
Figure 9. Visible light image (left) and infrared image (right) of the same scene
RDAB模块将残差密集块(RDB)与混合域注意力模块(EPA)相结合。RDAB结构如图12所示。
残差密集块RDB的概念来自单幅图像超分辨率(SISR)。SISR旨在于低分辨率(LR)测量的基础上生成视觉良好的高分辨率(HR)图像。Yulun Zhang[14]等在CVPR2018提出了一种由残差密集块构成的残差密集网络来从原图生成高分辨率图像。该网络结合残差网络与密集连接网络的特性充分利用原始LR图像的所有分层特征,因而能重构出高质量的图像,RDB的结构如图13所示。
RDB通过密集卷积层来提取充分的局部特征,不仅可以通过连续记忆(CM)机制从前一个 RDB 读取状态,还可以通过局部密集连接充分利用其中的所有层。
混合域注意力模块EPA结构详见2.2节。由图8可知,在残差密集块结构的1*1 Conv 后面加入混合域注意力模块EPA。基于注意力机制的RDAB允许通过多个局部残差连接绕过较不重要的信息,使得检测算法更关注与目标相关的通道与像素位置信息。
-
项目数据来源是机载挂飞采集和无人机采集的中/长波红外弱小车辆目标。初始数据为标注存在一定问题的红外车辆目标图像5023张。首先进行数据清洗保留4986张,随机选取其中的1000张留存作为检测集,将剩下的3986张样本图像作为原始训练集。按照1节中的数据增广方法将原始训练集进行样本扩充,扩充后为51818张,随机选取5%即2590张作为验证集,作为训练使用,如表2所示。
表 2 红外弱小车辆图像数据集分布情况
Table 2. Distribution of infrared small and weak vehicle image dataset
Target type [car] Target scene Desert, city, field, highway, village Data Augmentation Method Brightness change, contrast change, rotation, translation, scaling, flipping, clipping, splicing Original data Set 5023 (Before treatment) 4986 (After treatment) Data augmentation 1000 Training set 49228 Validation set 2590 文中使用的实验环境具体参数如表3所示。
表 3 实验环境具体参数
Table 3. Specific parameters of the experimental en-vironment
Experimental system Ubuntu18.04 CPU Inter Xeon Gold 6133 GPU NVIDIA TITAN RTX ×4 Memory 512 GB Development environment Python3.7 Deep learning framework Pytorch CUDA 10.2 cuDNN 7.5.3 -
确定JH-YOLOv5-RDAB网络结构后,在文中构建的小尺寸红外车辆目标数据集上,进行充分训练(epoch=500),同时与YOLO系列的YOLOv3、YOLOv4-tiny、YOLOv4、YOLOv5 s、YOLOv5 m、YOLOv5 l、YOLOv5 x 、YOLO-Fastest等8个算法进行了对比验证,统计最终性能指标。图14所示为各算法训练结果对比结果。
总结对比各个算法参数量、模型大小和以mAP50代表的检测精度,检测速度与模型大小正相关,移植所用资源与参数量正相关,得到结果如表4所示。mAP用于评价检测算法在某个数据集上的平均精度,多个类别物体检测中,每一个类别都可以根据recall和precision绘制一条曲线,AP就是该曲线下的面积,mAP是多个类别AP的平均值。mAP50指的是交并比为0.5时mAP的值。 而交并比是目标检测中使用的一个概念,是产生的候选框与原标记框的交叠率,即它们的交集与并集的比值。GFLOPs是浮点运算次数,可以用来衡量算法/模型复杂度,1 GLOPs=10亿次浮点运算。
表 4 JH-YOLOv5-RDAB与典型算法网络实验效果对比
Table 4. Comparison of experimental results between JH-YOLOv5-RDAB and typical algorithm networks
Algorithm Layers Parameters Size (Semi precision quantization) mAP50 GFLOPs Single test time/ms YOLOv3 261 61497430 123.4M 81.6 154.9 5.3 YOLOv4-tiny 99 5874116 23.6M 88.2 16.1 1.8 YOLOv4 488 63937686 256.3M 94.6 141.4 8.7 YOLOv5 s 283 7063542 14.4M 93.4 16.3 2.34 YOLOv5 m 391 21056406 42.5M 94.5 50.3 3.45 YOLOv5 l 499 46631350 93.7M 95.2 114.1 4.93 YOLOv5 x 607 87244374 175.1M 95.9 217.1 8.43 YOLO-Fastest 277 356700 4.8M 32.1 0.96 1.6 JH-YOLOv5-RDAB 565 3117313 6.6M 95.1 8.4 2.52 由表4可知,提出的JH-YOLOv5-RDAB算法模型权重大小为6.6 MB,低于YOLOv5 s算法的一半,而检测精度mAP接近93.7 MB的YOLOv5 l,达到95.1%,而GFLOPs值只有8.4,具有可观的优越性,能够满足红外小尺寸车辆目标的检测识别需求,同时其轻量化的尺寸为后续嵌入式平台加速提供了可靠支持。但是,由于EPA模块以及RDAB模块的使用,使得算法含有较多的层数。由表4可知,提出的JH-YOLOv5-RDAB算法虽然参数量少,模型权重大小较小,但网络层数较多,算法含有565层,仅次于YOLOv5 x算法的607层,使得算法改写以及移植困难。
从图15可以看出,文中提出的JH-YOLOv5-RDAB算法网络具有很好的性能指标,能够对公路、森林、田野等复杂环境,对像素约为10×10以内的红外车辆目标进行较为精确的检测识别。
-
为了进一步分析每个改进点对 JH-YOLOv5-RDAB算法的贡献,文中进行了 基于YOLOv5 s的轻量化剪裁的消融实验,不同注意力机制不同融合位置的消融实验,RDAB模块不同融合位置的消融实验,实验结果分别如表5 、表6 、表7 所示。
表 5 基于YOLOv5 s的轻量化剪裁实验效果对比
Table 5. Comparison of experimental effects of lightweight tailoring based on YOLOv5 s
Algorithm Depth_
multiplewidth_
multiplePerformance effect/times Network size/times YOLOv5 x 1.33 1.25 2.3 12.2 YOLOv5 l 1 1 1.8 6.5 YOLOv5 m 0.67 0.75 1.2 2.9 YOLOv5 s 0.33 0.50 1 1 Net 1 0.25 0.33 0.85 0.49 Net 2 0.2 0.25 0.63 0.35 Net 3 0.1 0.2 0.33 0.12 表 6 基于注意力机制融合的网络实验效果对比
Table 6. Comparison of network experimental effects based on attention mechanism fusion
Fused operator Integrated ECA Integrated EPA Performance effect/times Network size/times Performance effect/times Network size/times Net 2 1 1 1 1 CBL 1.1 1.6 1.3 2.4 SPP 1.2 1.12 1.43 1.18 CSP 1.3 1.1 1.33 1.11 Focus 1.02 1.01 1.11 1.01 表 7 基于残差密集注意模块融合的网络实验效果对比
Table 7. Comparison of network experimental effects based on RDAB
Fused operator Integrated RDAB Performance effect/times Network size/times Focus 1.28 1.06 SPP+ Focus 1.35 1.08 表5显示的是采用不同调整系数depth_multiple和系数width_multiple对YOLOv5 s网络进行轻量化剪裁时,对算法性能的影响。表5按epoch50的最高mAP作为性能效果的验证指标,并将各算法的性能效果与网络大小以YOLOv5 s为对照标准进行归一化,即网络大小=待测网络参数量/YOLO5 s参数量,性能效果=待测网络检出率/YOLOv5 s检出率。由表5可知在尽可能保证算法检测性能的基础上使得算法模型大小降到最低,网络2最为满足所需,以原三分之一的模型大小保留了原算法性能的约三分之二。
表6显示的是分别采用ECA与EPA模块在YOLOv5 s网络不同位置融合时,对算法性能的影响。表6按epoch50的最高mAP作为性能效果的验证指标,并将各算法的性能效果与网络大小以网络2为对照标准进行归一化。由表6可知,融合了EPA模块的网络比单独融合单一注意力机制模块的网络具有更好的性能效果,说明了在文中所用的红外车辆目标数据集中,融合EPA模块的网络更适用。而将EPA模块与SPP模块、CSP模块融合既提高了检测网络的性能指标,又不会带来过度的计算负荷和计算复杂度。
表7显示的是采用RDAB模块在YOLOv5 s网络不同位置融合时,对算法性能的影响。由表7可知,在Focus模块与SPP模块中融合RDAB可以进一步提升网络性能。
Lightweight infrared dim vehicle target detection algorithm based on deep learning
-
摘要: 伴随高速飞行器的不断发展,目标检测识别作为精确制导的关键一环,需要更高实时性、高准确性地进行目标定位和识别。当前,针对装甲车辆、车辆阵地等时间敏感目标精确检测识别的需求日益迫切,深度学习算法在特征提取及分类器设计上具备优势。文中以特定复杂背景下的小尺寸红外车辆目标为研究对象,针对样本数据少、平台资源受限、实时性要求高、检测精度高等需求,开展基于红外弱小车辆目标检测识别的轻量化深度学习算法研究。项目基于YOLOv5算法进行轻量化剪裁,减小模型的结构,提高实时性;提出了混合域注意力机制模块EPA,该模块通过不降维的局部跨信道交互策略使算法更快速有效地关注重要通道,抑制无效通道,并将通道注意力机制与空间注意力机制结合,使得算法更关注与目标相关的像素信息。提出了残差密集注意模块(RDAB),该模块由密集残差块与注意力机制EPA构成,通过密集卷积层来提取充分的局部特征,通过注意力机制获取更有效的通道与像素信息,可以使得算法以较小的模型结构获得较好的检测效果。运用设计的网络对数据增广后的小尺寸红外车辆目标数据进行检测识别,并与多种典型算法进行对比实验。由实验结果可知,文中提出的JH-YOLOv5-RDAB网络检测识别效果优于其他网络,权重大小仅为6.6 MB,仅为YOLOv5s算法模型权重的一半,但算法检测效果更优,与93.7 MB的YOLOv5l算法的检测效果接近,mAP50达到95.1%。实验结果表明:该网络在红外弱小车辆目标检测上的优越性和可行性。Abstract: With the continuous development of high-speed aircraft, target detection and recognition, as a key part of precision guidance, requires higher real-time and high-accuracy target positioning and recognition. At present, the need for accurate detection and identification of time-sensitive targets such as armored vehicles and vehicle positions is increasingly urgent. Deep learning algorithms have advantages in feature extraction and classifier design. This paper takes the small-sized infrared vehicle target under a specific complex background as the research object, and develops a lightweight deep learning algorithm based on infrared dim vehicle target detection and recognition to meet the needs of less sample data, limited platform resources, high real-time requirements, and high detection accuracy. The project is light-weight cut based on the YOLOv5 algorithm, reduce the structure of the model and improve the real-time performance; a hybrid domain attention mechanism module EPA is proposed, which enables the algorithm to focus on important channels more quickly and effectively through a local cross-channel interaction strategy without dimensionality reduction. Suppressing invalid channels and combining the channel attention mechanism with the spatial attention mechanism makes the algorithm pay more attention to the pixel information related to the target. The Residual Dense Attention Module (RDAB) is proposed, which is composed of dense residual blocks and attention mechanism EPA. It extracts sufficient local features through dense convolutional layers, and obtains more effective channel and pixel information through attention mechanism, which can make the algorithm obtain better detection effect. Detect and identify the small-size infrared vehicle target data after data augmentation, and compare experiments with a variety of typical algorithms. It can be seen from the experimental results that the detection and recognition effect of the JH-YOLOv5-RDAB network proposed in this paper is better than other networks, and the weight size is only 6.6 MB, which is only half of the weight of the YOLOv5s algorithm model, but the algorithm detection effect is better, and the detection effect of the algorithm is close YOLOv5l whose weight size is 93.7 MB, with mAP50 reaching 95.1%. The experimental results show the superiority and feasibility of this network in infrared dim vehicle target detection.
-
表 1 单幅图像的模拟图像处理方法
Table 1. Analog image processing method for single image
Flight live image Analog image processing Aircraft falling at high speed Image magnification under fixed field of view Aircraft level flight Image translation Aircraft rotation Image rotation at various angles Aircraft shaking Image translation Infrared imagers are affected by temperature and weather Image contrast, brightness changes Aerodynamic effect of aircraft flying at high speed Image random blur, edge blur Aircraft is disturbed Image random occlusion 表 2 红外弱小车辆图像数据集分布情况
Table 2. Distribution of infrared small and weak vehicle image dataset
Target type [car] Target scene Desert, city, field, highway, village Data Augmentation Method Brightness change, contrast change, rotation, translation, scaling, flipping, clipping, splicing Original data Set 5023 (Before treatment) 4986 (After treatment) Data augmentation 1000 Training set 49228 Validation set 2590 表 3 实验环境具体参数
Table 3. Specific parameters of the experimental en-vironment
Experimental system Ubuntu18.04 CPU Inter Xeon Gold 6133 GPU NVIDIA TITAN RTX ×4 Memory 512 GB Development environment Python3.7 Deep learning framework Pytorch CUDA 10.2 cuDNN 7.5.3 表 4 JH-YOLOv5-RDAB与典型算法网络实验效果对比
Table 4. Comparison of experimental results between JH-YOLOv5-RDAB and typical algorithm networks
Algorithm Layers Parameters Size (Semi precision quantization) mAP50 GFLOPs Single test time/ms YOLOv3 261 61497430 123.4M 81.6 154.9 5.3 YOLOv4-tiny 99 5874116 23.6M 88.2 16.1 1.8 YOLOv4 488 63937686 256.3M 94.6 141.4 8.7 YOLOv5 s 283 7063542 14.4M 93.4 16.3 2.34 YOLOv5 m 391 21056406 42.5M 94.5 50.3 3.45 YOLOv5 l 499 46631350 93.7M 95.2 114.1 4.93 YOLOv5 x 607 87244374 175.1M 95.9 217.1 8.43 YOLO-Fastest 277 356700 4.8M 32.1 0.96 1.6 JH-YOLOv5-RDAB 565 3117313 6.6M 95.1 8.4 2.52 表 5 基于YOLOv5 s的轻量化剪裁实验效果对比
Table 5. Comparison of experimental effects of lightweight tailoring based on YOLOv5 s
Algorithm Depth_
multiplewidth_
multiplePerformance effect/times Network size/times YOLOv5 x 1.33 1.25 2.3 12.2 YOLOv5 l 1 1 1.8 6.5 YOLOv5 m 0.67 0.75 1.2 2.9 YOLOv5 s 0.33 0.50 1 1 Net 1 0.25 0.33 0.85 0.49 Net 2 0.2 0.25 0.63 0.35 Net 3 0.1 0.2 0.33 0.12 表 6 基于注意力机制融合的网络实验效果对比
Table 6. Comparison of network experimental effects based on attention mechanism fusion
Fused operator Integrated ECA Integrated EPA Performance effect/times Network size/times Performance effect/times Network size/times Net 2 1 1 1 1 CBL 1.1 1.6 1.3 2.4 SPP 1.2 1.12 1.43 1.18 CSP 1.3 1.1 1.33 1.11 Focus 1.02 1.01 1.11 1.01 表 7 基于残差密集注意模块融合的网络实验效果对比
Table 7. Comparison of network experimental effects based on RDAB
Fused operator Integrated RDAB Performance effect/times Network size/times Focus 1.28 1.06 SPP+ Focus 1.35 1.08 -
[1] Li Xudong, Ye Mao, Li Tao. A review of object detection research based on convolutional neural network [J]. Computer Application Research, 2017, 34(10): 2881-2887. (in Chinese) [2] Tang Cong, Ling Yongshun, Yang Hua, et al. Visual tracking method for object detection based on deep learning [J]. Infrared and Laser Engineering, 2018, 47(5): 0526001. (in Chinese) [3] Krizhevsky A, Sutskever I, Hinton G. Imagenet classification with deep convolutional neural networks [J]. Advances in Neural Information Processing Systems, 2012, 25: 1097-1105. [4] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9. [5] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. (2014-09-04)[2022-03-20]. https://arxiv.org/abs/1409.1556v4. [6] He K M, Zhang X Y, Ren S Q, et al. Deep residual learning for image recognition [C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition , 2016: 770-778. [7] Zhou Xiaoyan, Wang Ke, Li Lingyan. A review of target detection algorithms based on deep learning [J]. Electronic Measurement Technology, 2017, 40(11): 89-94. (in Chinese) [8] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587. [9] Redmon J , Divvala S , Girshick R , et al. You only look once: Unified, Real-TimeObject detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 2016: 779-788. [10] Ren H, Wang X G. Review of attention mechanism [J]. Journal of Computer Applications, 2021, 41(S1): 1-6. (in Chinese) [11] Hu J, Shen L, Albanie S, et al. Squeeze-and-excitation networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011-2023. doi: 10.1109/TPAMI.2019.2913372 [12] Wang Q, Wu B, Zhu P, et al. ECA-Net: Efficient channel attention for deep convolutional neural networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2020: 11531-11539. [13] Qin X, Wang Z, Bai Y, et al. FFA-Net: Feature fusion attention network for single image dehazing[C]//Proceedings of the National Conference on Artificial Intelligence in Association for the Advancement of Artificial Intelligence, 2020: 1-9. [14] Zhang Y, Tian Y, Kong Y, et al. Residual dense network for image super-resolution[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 2472-2481.