建筑业作为中国先导性的基础产业在国民经济中占有重要地位[1],但建筑施工现场经常存在各种各样的施工安全风险,如高处坠落、物体打击、坍塌、起重伤害及其他伤害等,这些安全风险时刻威胁着施工人员的人身安全。穿戴反光衣可以提高工人的可见性,减少事故发生的风险;佩戴安全帽可以最大限度地减少创伤性脑损伤风险进而保护施工人员的安全。人工巡检施工现场人员安全衣帽的穿戴问题消耗大量人力,且无法做到持续监管,针对当前施工现场安全生产要求,基于深度学习的目标检测算法更适合施工现场的实时监控。
当前的目标检测算法可分为两阶段目标检测和单阶段目标检测算法[2]。两阶段目标检测算法包括 Fast R-CNN[3]、R-FCN[4]和Mask R-CNN[5]等。这些算法在图像中生成一系列候选区域,然后对这些候选区域进行分类和回归。单阶段目标检测算法主要包括YOLO[6-10]、SSD[11]、CornerNet[12]和M2Det[13]等。这些算法无须生成候选区域,在一个步骤中直接预测对象的类别和位置。对比两阶段目标检测算法,单阶段目标检测算法虽然会损失少量检测精度,但能够快速完成目标检测,在工程应用上更具优势。
单阶段目标检测算法YOLOv7-tiny[8]作为基础网络,在保持轻量化设计的同时,能够在计算资源受限的环境中实现高效的目标检测,适用于施工现场实时检测场景。本文以YOLOv7-tiny为基础网络,提出了一种改进YOLOv7-tiny网络。改进YOLOv7-tiny网络可以避免施工现场安全衣帽穿戴检测中因复杂背景干扰、目标尺寸小、目标遮挡等问题导致的检测精度低、漏检和误检等现象的发生。为增强检测鲁棒性,首先,在特征提取网络中引入基于跨空间学习的高效多尺度注意力机制(efficient multi-scale attention,EMA)[14],用以捕捉不同尺度特征;其次,在特征融合网络插入感受野增强模块(receptive field enhancement module,RFEM)[15]来扩大特征图的感受野;最后,采用Shape-IoU[16]边界回归损失函数替换IoU[17]边界损失函数,从而提升检测的准确性。
在基于YOLO的安全帽和反光衣的检测中,反光服检测算法YOLO-FL[18]在YOLOv4-tiny的颈部网络引入SPPF模块,并提出了一种新的交并比计算方法KIoU,将其引入到原K-means++聚类方法中,使得模型平均检测精度比原算法提高了8.29%;YOLO-S[19]是一款轻型头盔佩戴检测模型,通过数据增强来平衡数据类别,并用轻量级网络MobileNetV2取代YOLOv5s原来的骨干网络,最后对模型通道进行剪枝和知识蒸馏,减少了网络计算量;YOLO-M[20]对YOLOv5s进行改进,选择轻量级网络MobileNetV3作为骨干网络,设计BiCAM的注意模块并插入到网络中,特征融合模块引入残差结构,在汇聚原始图像信息的同时,降低模型参数量,进一步提高了安全帽检测的精度;Peng等[21]在YOLOv5头部网络中添加了有效的通道注意力(ECA)机制,并将损失函数替换为NWD,在不增加太多计算复杂度的情况下有效提升YOLOv5中小型安全帽的检测精度;Ma等[22]使用基于YOLOv4的稀疏训练和修剪策略,改进后的Light-YOLOv4模型大小压缩至原模型的10%,虽精度略有损失,但检测速度却大大提高。
虽然上述方法都提高了检测性能,但对于施工现场安全衣帽穿戴的检测仍存在一些挑战。目前对安全衣帽穿戴检测的研究主要集中在安全帽上,忽视了对反光服装的检测;缺乏包含安全帽、反光衣的图像数据集;施工现场环境复杂,拍摄得到的检测目标小、存在遮挡、背景复杂的图像存在目标特征信息丢失的情况,从而导致检测结果出现漏检和误检等现象。
YOLOv7-tiny[8]是YOLOv7系列的轻量化版本,专为计算资源受限环境设计,旨在实现快速高效的目标检测。改进后的YOLOv7-tiny网络在保持轻量化的同时,针对复杂背景、小目标检测和精度提升进行了优化。其结构包括特征提取网络(Backbone)、特征融合网络(Neck)和检测头(Head),改进YOLOv7-tiny网络结构如图1所示。在特征提取网络(Backbone)中,本文引入了高效多尺度注意力机制EMA[14],通过多尺度学习增强特征捕捉能力,减少复杂背景干扰,提升精度和鲁棒性,同时保留YOLOv7-tiny的核心卷积层、ELAN模块和MP模块。在特征融合网络(Neck)中,添加感受野增强模块RFEM[15],利用不同扩张率的卷积层扩大感受野,增强多尺度特征理解,提升复杂背景下小目标检测能力。改进后的Neck网络不仅保留了YOLOv7-tiny的轻量化特点,还在特征融合过程中强化了对多尺度特征的理解。在检测头(Head)部分,采用Shape-IoU[16]损失函数代替传统的IoU[17]损失函数,优化边界框回归精度,特别在复杂场景中提升不规则目标回归的准确性。检测头通过CBL模块进行边界框定位、分类和精度估计,生成最终结果。
图1 改进YOLOv7-tiny网络结构
Figure 1 Improved YOLOv7-tiny structure
高效多尺度注意力机制EMA[14],通过多尺度并行网络建立短期和长期依赖关系,实现局部跨通道交互并整合不同尺度的上下文特征。图2为EMA模块结构。如图2所示,EMA模块重构部分通道,将特征划分为不同分支以学习多层语义信息。EMA模块包含3条分支:两条1×1分支和1条3×3分支。两条1×1分支分别沿水平方向和垂直方向进行编码,获取注意力信息,池化后的特征通过1×1卷积和Sigmoid生成注意力图。在3×3分支中,通过堆叠卷积捕获多尺度特征,以增强表达。1×1和3×3分支输出的特征图通过矩阵点积生成空间注意力图,对目标精确定位,最终融合生成像素级的注意关系,提取全局上下文信息,突出重要像素。在施工现场安全检测中,复杂背景常导致目标识别精度下降,引入EMA模块可以在不同尺度下提取和整合特征,捕捉多层次的上下文信息,提升模型在复杂背景下的特征表达能力,增强网络对目标的鲁棒性。EMA模块通过多尺度特征融合,在复杂场景中可有效区分目标和背景,从而提高目标识别的精度。
图2 EMA模块结构
Figure 2 Structure of EMA module
感受野增强模块RFEM[15]用于增强感受野,提升多尺度目标检测与识别的准确性。该模块由多个分支和聚合加权层组成。多分支部分通过不同扩张率的卷积捕捉多尺度信息,各分支共享权重,唯一的区别在于感受野的大小。每个分支采用3×3卷积核,并通过残差连接防止梯度消失和梯度爆炸。聚合加权层则整合各分支信息并对其进行加权,以平衡不同分支的表示能力。将RFEM模块与SPPCSP结合后,能够有效扩大特征图的感受野,改善上下文理解与特征提取,进而提升小目标检测和复杂背景下的安全衣帽穿戴检测性能。改进后的RFEM模块结构如图3所示。
图3 改进后的RFEM模块结构
Figure 3 Structure of improved RFEM module
Shape-IoU[16]方法主要针对目标检测任务中的边界框回归准确性问题。传统的边界框回归方法通常仅考虑预测框与真实框之间的几何关系,忽略了边界框自身的形状和尺度对回归精度的影响。Shape-IoU通过关注边界框的形状和尺寸信息,进一步提高了回归的准确性,从而提高目标检测的整体效果,其计算示意图如图4所示,相关公式及计算如下。
(1)
图4 Shape-IoU计算示意图
Figure 4 Diagram of Shape-IoU calculation
式中:IoU(intersection over union)为交并比,用于评估预测框与真实框的重叠情况,其值为0~1,值越大表示重叠度越高,IoU帮助网络判断检测准确性,提高检测精度;b表示预测边界框;bgt表示真实边界框(GT框)。
(2)
式中:ww表示真实框在水平方向上的相关权重系数,通过引入该系数考虑预测边界框与真实边界框的宽度差异,它对边界框的水平方向尺度进行精细调整,从而提升定位准确性;wgt表示真实边界框的宽度;hgt表示真实边界框的高度;scale为比例因子,与数据集中目标的比例有关。
(3)
式中:hh为引入垂直方向的相关权重系数,以修正预测框与真实框在高度上的差异,使检测框在垂直方向上的误差减小,增强上下边界的拟合能力。
(4)
式中:distanceshape表示预测框和真实框中心点之间的形状调整距离,相比传统IoU,该公式结合了边界框的形状差异,使Shape-IoU能更好地拟合不规则目标;xc表示预测边界框的中心点的x坐标;yc表示预测边界框的中心点的y坐标;
表示真实边界框的中心点的x坐标;
表示真实边界框的中心点的y坐标;d表示预测边界框中心点与真实边界框中心点的距离。
(5)
(6)
式中:Ωshape为Shape-IoU度量中的形状相似性项,用于表示预测边界框与真实边界框之间的形状相似性,引入形状相似性可优化边界框回归,确保预测边界框在覆盖目标的同时也与目标形状匹配;θ为权重因子;w和h分别为预测边界框的宽度和高度;ωt表示Shape-IoU计算中的权重因子,t的取值为w和h,其计算公式为式(6),式(6)通过引入边界框的宽度与高度的权重因子,进一步平衡边界框形状和尺寸的影响。
Shape-IoU的边界框回归损失函数如式(7)所示。区别于传统IoU方法,Shape-IoU在回归过程中考虑形状和尺寸因素。通过宽度和高度的比例权重,Shape-IoU能更精确地处理不同尺度和形状的目标,提升匹配能力,并在处理形状复杂对象时展现出更强的鲁棒性和回归性能。
LShape-IoU=1-IoU+distanceshape+0.5Ωshape。
(7)
目前尚无同时包含反光衣和安全帽检测的开源数据集,因此本文构建了一个施工现场安全衣帽穿戴检测数据集。数据集部分采用了开源安全帽数据集SHWD(safety helmet wearing-dataset),该数据集包含佩戴安全帽和未佩戴安全帽两个类别,但不包含反光衣的检测类别。为此,本文通过网络爬虫收集施工现场工人的图像,并将其与SHWD数据集一起上传至Robflow数据标注平台,对图像数据进行清洗、标注、划分。整理后的数据集包含7 017张图像,标注了3个类别:人(person)、佩戴安全帽(helmet)和穿戴反光衣(vest),标注的数量分别为17 148,9 465和7 866个。数据集按照8∶1∶1的比例划分为训练集、验证集和测试集,数据集示例如图5所示。本文所有实验均基于该自制数据集进行,以确保评估结果的统一性和可靠性。
图5 施工现场安全衣帽穿戴检测数据集示例
Figure 5 Example of safety clothing and helmet wearing detection data set on construction site
本实验在Windows10操作系统上进行,使用深度学习框架PyTorch1.7.1搭建网络模型,编程语言为Python3.8。GPU加速采用CUDA 11.0,硬件配置为NVIDIA GRID T4-8Q显卡(8 GB显存)、QEMU Virtual CPU和16 GB内存。实验设置batch size为8,训练周期为150个轮次,初始学习率为0.01,动量为0.8,权重衰减系数为0.000 5。
实验选取精确率P、召回率R、平均精度均值mAP、帧率、模型参数量和计算量作为评价指标。平均精度均值mAP是所有类别的平均精度,每个类别的平均精度AP是该类别P-R曲线的面积;mAP@0.5表示在IoU阈值为0.5时的mAP;参数量用于评估模型大小,参数量和计算量越小,说明模型越轻量;帧率表示每秒钟刷新的图像数量,可用于评估模型在检测时的效率。
在自制的施工现场安全衣帽穿戴检测数据集上,分别使用YOLOv7-tiny和改进YOLOv7-tiny模型进行实验,对比结果如表1所示。从表1可知,改进YOLOv7-tiny模型的mAP@0.5指标提升了3.0百分点,其中person、helmet、vest 3类目标的AP值分别提高了5.8百分点、1.9百分点和1.6百分点,改进模型在person类和helmet类的检测中效果较为显著,因这两类目标较小,容易受到施工现场光线和遮挡的影响。结果验证了改进YOLOv7-tiny模型在复杂施工环境中对安全衣帽检测精度的有效提升。
表1 YOLOv7-tiny改进前后检测效果对比
Table 1 Comparison of detection effects before and after the improvement of YOLOv7-tiny
模型AP/%personhelmetvestmAP@0.5/%YOLOv7-tiny86.881.293.987.4改进YOLOv7-tiny92.683.195.590.4
为了验证EMA注意力机制的优势,本文在YOLOv7-tiny算法基础上分别引入了空间注意力机制GAM[23]、通道注意力机制SE[24]、ECA[25]、混合注意力机制CBAM[26]及EMA[14]注意力机制,并对各注意力机制进行了实验对比,实验结果如表2所示。由表2可知,除了CBAM导致mAP@0.5略微下降0.1百分点外,添加SE、ECA、GAM和EMA注意力机制分别提升了0.1百分点、0.4百分点、0.6百分点和0.9百分点,其中EMA的提升幅度最大。此外,EMA在召回率R上比GAM高了0.4百分点,并且计算量远小于GAM。实验结果表明,EMA的多尺度特征融合机制能够有效提取复杂背景中的关键特征,突出目标信息,从而在施工现场等复杂场景中表现出更高的鲁棒性和检测精度。
表2 注意力机制对比实验
Table 2 Comparative experiment of attention mechanism
模型R/%mAP@0.5/%计算量/GFLOPsYOLOv7-tiny86.487.413.2YOLOv7-tiny+SE86.587.514.2YOLOv7-tiny+CBAM86.787.314.3YOLOv7-tiny+ECA86.287.814.2YOLOv7-tiny+GAM87.988.034.2YOLOv7-tiny+EMA88.388.314.2
为了验证不同损失函数对网络性能的影响,本文在自制的安全衣帽检测数据集上,对YOLOv7-tiny网络分别采用了IoU[17]、WIoU[27]、EIoU[28]、SIoU[29]和Shape-IoU[16]5种损失函数进行训练,并对实验结果进行对比分析,结果如表3所示。由表3可知,不同损失函数对网络训练结果的影响各不相同。在平均精度均值mAP@0.5指标上,相较于IoU,WIoU、EIoU、SIoU和Shape-IoU分别提高了0.1百分点、0.3百分点、0.2百分点和0.6百分点,其中Shape-IoU的提升幅度最大。在精确率P方面,WIoU通过动态聚焦机制,优化了预测框与真实框的重叠区域,因而在边界对齐上表现更佳。
表3 损失函数对比实验
Table 3 Comparative experiment of loss function 单位:%
损失函数PRmAP@0.5IoU85.086.487.4WIoU86.185.287.5EIoU85.086.687.7SIoU84.387.087.6Shape-IoU85.387.188.0
Shape-IoU不仅关注重叠面积,还综合考虑了边界框的形状和尺寸特征,重点提升了整体的形状匹配与回归精度,这使其在召回率R和mAP@0.5上均取得了最高值。mAP@0.5作为衡量模型综合检测性能的核心指标,进一步验证了Shape-IoU在检测精度上的优势。图6为mAP@0.5指标下不同损失函数训练示意图。由图6可知,Shape-IoU在训练过程中收敛更快,并表现出较高的稳定性。因此,Shape-IoU作为改进YOLOv7-tiny的边界回归损失函数在施工现场安全衣帽检测任务中表现出更优的综合性能。
图6 mAP@0.5指标下不同损失函数训练示意图
Figure 6 Training comparison of loss functions with mAP@0.5
为验证各改进点对网络的增益,本文进行了以下7组消融实验,结果如表4所示。由表4可知,各个改进点单独使用时均能提升各项指标。其中,RFEM通过提高特征图感受野,在目标检测性能上提升最显著,mAP@0.5提升了1.0百分点;EMA则通过捕捉不同尺寸特征,使mAP@0.5提升了0.9百分点;Shape-IoU损失函数优化边界框回归的精度,mAP@0.5也有0.6百分点的提升。在组合实验中,各改进点的组合使用均显示出明显的提升效果,表明了不同改进策略间具有良好的互补性,当3个改进点同时应用时提升最大,精确率P、召回率R和mAP@0.5分别提升了3.7百分点、2.3百分点和3.0百分点。
表4 消融实验
Table 4 Ablation experiments 单位:%
EMARFEMShape-IoUPRmAP@0.585.086.487.4√87.588.388.3√85.787.288.4√85.387.188.0√√87.784.589.3√√87.487.989.6√√86.687.689.1√√√88.788.790.4
为了验证改进YOLOv7-tiny的创新性和优势,本文与多种主流目标检测算法进行了对比实验。结果如表5所示。表5展示了包括YOLOv5s、YOLOv6s、YOLOv8s、YOLOv9s、YOLOv7与本文改进YOLOv7-tiny模型在多个关键性能指标上的对比。改进YOLOv7-tiny模型在mAP@0.5上达到了90.4%,略低于YOLOv7的90.6%,但在实时性、模型大小和计算复杂度等方面表现更为优越。改进模型帧率为93帧/s,显著高于YOLOv5s的72帧/s和YOLOv7的42帧/s,适合动态环境下的安全衣帽穿戴的监测。在模型大小方面,改进YOLOv7-tiny参数量为6.1×106,低于其他模型,更适合资源受限的应用场景。在模型计算量上,改进后的YOLOv7-tiny计算量远低于YOLOv6s和YOLOv7,表明该模型在保持较高检测精度的同时,具备更低的计算复杂度。综上所述,改进YOLOv7-tiny模型在目标检测精度、实时性、模型大小及计算复杂度等多个方面均展现出优异的性能,为施工现场安全衣帽穿戴检测提供了理想的解决方案。
表5 不同算法性能对比
Table 5 Performance of different algorithms
算法mAP@0.5/%帧率/(帧·s-1)参数量/106计算量/GFLOPsYOLOv5s87.1727.216.0YOLOv6s87.98818.545.3YOLOv8s87.68011.228.6YOLOv9s87.8907.126.4YOLOv790.64237.2105.2改进YOLOv7-tiny90.4936.114.2
图7展示了在检测框置信度阈值设定为0.25时YOLOv7-tiny与改进YOLOv7-tiny在不同施工场景下的施工人员安全衣帽穿戴检测效果对比。在图7(a)和7(b)中,由于复杂背景和弱光环境下的背景干扰强烈、目标特征信息不明显,YOLOv7-tiny检测容易产生误检和漏检(红框标注)。在图7(c)中,目标被遮挡导致特征信息不完整,进而使YOLOv7-tiny出现漏检问题(红框标注)。改进YOLOv7-tiny通过EMA注意力机制学习并融合不同层次的特征信息,增强了对目标的语义建模能力;通过RFEM模块得到更大感受野,提升了网络的鲁棒性和定位精度,有效减少了误检和漏检的问题。
图7 不同环境下检测对比
Figure 7 Comparison of detection in different environments
本文提出了一种改进YOLOv7-tiny的施工现场安全衣帽穿戴检测算法,针对当前算法在复杂背景、小目标检测抗干扰能力不足及精度差等问题进行优化。研究构建了包含person、helmet和vest 3类目标的自制数据集,结合EMA注意力机制提升特征提取能力,RFEM模块扩大网络感受野,并采用Shape-IoU边界回归损失函数优化检测精度。实验结果表明,改进模型的mAP@0.5提高3.0百分点,person、helmet和vest类别的AP值分别提高5.8百分点、1.9百分点和1.6百分点。对比实验显示,该算法在检测精度、实时性和模型轻量化方面均优于YOLOv5s等主流算法,尤其适用于复杂施工环境的实时监测。未来工作将聚焦于实际施工场景及边缘设备上的模型性能评估。
[1] 宋健, 黄建军. 建筑工人安全参与行为演化博弈分析[J]. 安全, 2021, 42(10): 62-67.SONG J, HUANG J J. Evolutionary game analysis on safety participation behavior of construction workers[J]. Safety &Security, 2021, 42(10): 62-67.
[2] 张震, 王晓杰, 晋志华, 等. 基于轻量化YOLOv5的交通标志检测[J]. 郑州大学学报(工学版), 2024, 45(2): 12-19.ZHANG Z, WANG X J, JIN Z H, et al. Traffic sign detection based on lightweight YOLOv5[J]. Journal of Zhengzhou University (Engineering Science), 2024, 45(2): 12-19.
[3] GIRSHICK R. Fast R-CNN[C]∥2015 IEEE International Conference on Computer Vision (ICCV).Piscataway:IEEE,2015: 1440-1448.
[4] DAI J F, LI Y, HE K M, et al. R-FCN: object detection via region-based fully convolutional networks. [EB/OL].(2016-05-20)[2025-06-22].https:∥doi.org/10.48550/arXiv.1605.06409.
[5] HE K M, GKIOXARI G, DOLL
R P, et al. Mask R-CNN[C]∥2017 IEEE International Conference on Computer Vision (ICCV). Piscataway: IEEE, 2017: 2980-2988.
[6] Ultralytics. YOLOv5[EB/OL]. (2020-05-18) [2025-06-22]. https:∥github.com/ultralytics/yolov5.
[7] LI C Y, LI L L, GENG Y F, et al. Yolov6 v3.0: a full-scale reloading[EB/OL]. (2023-01-13) [2025-06-22]. https:∥arxiv.org/abs/2301.05586.
[8] WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]∥2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway:IEEE, 2023: 7464-7475.
[9] Ultralytics. YOLOv8[EB/OL]. (2023-01-10) [2025-06-22]. https:∥github.com/ultralytics/ultralytics.
[10] WANG C Y, YEH I H, LIAO H Y M. YOLOv9: learning what you want to learn using programmable gradient information[EB/OL]. (2024-02-21) [2025-06-22]. https:∥arxiv.org/abs/2402.13616v2.
[11] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot multiBox detector[C]∥European Conference on Computer Vision. Cham: Springer , 2016: 21-37.
[12] LAW H, DENG J. CornerNet: detecting objects as paired keypoints[EB/OL]. (2024-02-21) [2025-06-22].https:∥doi.org/10.48550/arXiv.1808.01244.
[13] ZHAO Q J, SHENG T, WANG Y T, et al. M2Det: a single-shot object detector based on multi-level feature pyramid network[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2019, 33(1): 9259-9266.
[14] OUYANG D L, HE S, ZHANG G Z, et al. Efficient multi-scale attention module with cross-spatial learning[C]∥2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Piscataway:IEEE, 2023: 1-5.
[15] YU Z P, HUANG H B, CHEN W J, et al. YOLO-FaceV2: a scale and occlusion aware face detector[J]. Pattern Recognit, 2022, 155: 110714.
[16] ZHANG H, ZHANG S J. Shape-IoU: more accurate me-tric considering bounding box shape and scale [EB/OL]. (2023-12-29) [2025-06-22]. https:∥arxiv.org/abs/2312.17663.
[17] JIANG B, LUO R, MAO J, et al. Acquisition of localization confidence for accurate object detection[C]∥Euro-pean Conference on Computer Vision. Cham: Springer ,2018: 816-832.
[18] MA W B, GUAN Z, WANG X, et al. YOLO-FL: a target detection algorithm for reflective clothing wearing inspection[J]. Displays, 2023, 80: 102561.
[19] 赵红成, 田秀霞, 杨泽森, 等. YOLO-S: 一种新型轻量的安全帽佩戴检测模型[J]. 华东师范大学学报(自然科学版), 2021(5): 134-145.ZHAO H C, TIAN X X, YANG Z S, et al. YOLO-S: a new lightweight helmet wearing detection model[J]. Journal of East China Normal University (Natural Science), 2021(5): 134-145.
[20] WANG L L, ZHANG X J, YANG H L. Safety helmet wearing detection model based on improved YOLO-M[J]. IEEE Access, 2023, 11: 26247-26257.
[21] PENG J, PENG F, JIN S Z, et al. Research on safety helmet wearing detection based on YOLO[C]∥49th Annual Conference of the IEEE Industrial Electronics Society.Piscataway: IEEE, 2023: 1-6.
[22] MA X J, JI K F, XIONG B L, et al. Light-YOLOv4: an edge-device oriented target detection method for remote sensing images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021, 14: 10808-10820.
[23] LIU Y C, SHAO Z R, HOFFMANN N. Global attention mechanism: retain information to enhance channel-spatial interactions[EB/OL]. (2021-12-10) [2025-06-22]. 2021: 2112.05561.https:∥arxiv.org/abs/2112.05561v1.
[24] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2018: 7132-7141.
[25] WANG Q L, WU B G, ZHU P F, et al. ECA-net: efficient channel attention for deep convolutional neural networks[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway: IEEE, 2020: 11531-11539.
[26] WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[EB/OL]. (2018-07-11) [2025-06-22].https:∥doi.org/10.48550/arXiv.1807.06521.
[27] TONG Z, CHEN Y, XU Z, et al. Wise-IoU: bounding box regression loss with dynamic focusing mechanism[EB/OL] (2023-01-24) [2025-06-22]. https:∥arxiv.org/abs/2301.10051.
[28] ZHANG Y F, REN W Q, ZHANG Z, et al. Focal and efficient IOU loss for accurate bounding box regression[J]. Neurocomputing, 2022, 506: 146-157.
[29] GEVORGYAN Z. SIoU loss: more powerful learning for bounding box regression[EB/OL]. (2022-05-25) [2025-06-22].https:∥doi.org/10.48550/arXiv.2205.12740.