工业生产的钢材表面往往会出现裂纹、划痕等缺陷,产生这些缺陷的原因大致有两种:一是由于炼钢连铸坯的原因,坯料上有未消除的裂纹、皮下气泡及金属夹杂物等杂质,从而在钢材表面形成缺陷;二是轧钢原因引起的,主要是加热和冷却制度的影响。这些缺陷不仅影响美观,还会降低钢材的抗腐蚀性,降低产品质量。采用人工目视的检测方法来筛选优良产品是工厂的常用手段,但人工检测效率低,工人的主观判断也使得检测标准无法统一,进而导致检测结果不稳定。
近年来,随着深度学习的发展,基于深度学习的目标检测算法被广泛应用于钢材表面缺陷检测中。具体来说,以YOLO(you only look once)[1-2]为代表的一阶段算法能够以较快的速度直接预测出目标位置和类别;而以Faster R-CNN[3]为代表的二阶段算法在生成候选框的基础上再回归出目标区域,具有更高的精度。但是这些算法在检测钢材表面缺陷时表现较差,检测率较低。因此,钢材表面缺陷检测仍然具有很大的改进空间。
钢材表面缺陷检测效果差主要是由模型网络本身的局限性以及缺陷特点所导致。为了获得较强的语义信息和较大的感受野,检测网络不断堆叠下采样层,使得缺陷信息在向前传播过程中逐渐丢失,限制了小目标的检测性能。同时,在复杂的钢材表面背景下,缺陷特征易受干扰,不同尺度的钢材表面缺陷检测具有挑战性。此外,大多数模型算法在检测速度和精度中无法得到较好的平衡。
针对以上问题,本文提出了一种基于Transformer[4]混合采样与多元注意力协同的钢材表面缺陷检测模型。首先,构建高效通道特征提取网络ECA-ResNet,在复杂的钢材表面背景下着重提取缺陷特征;其次,为了扩大网络感受野以更好地捕获多尺度缺陷特征,同时捕捉全局和局部缺陷特征信息,提出双重注意力协同特征金字塔DAFPN;最后,为了在Transformer中实现以较小的计算量提取更精细的特征信息,设计出一种Transformer混合采样策略,分别通过可变形注意力机制和深度可分离卷积提高空间缺陷特征提取能力,以较小的计算量提取更精细的缺陷特征。
随着目标检测的发展,钢材表面缺陷检测领域也得到了实质性的发展。许多研究者开始将目标检测算法应用于缺陷检测中。Ferguson等[5]提出了一种使用卷积神经网络和X射线相结合进行缺陷检测的解决方案,将基于掩模区域的网络用于缺陷检测,该方法可以在输入图像中同时执行多个缺陷检测和相同缺陷的分割。Fu等[6]介绍了一种用于钢材表面缺陷检测和分类的多尺度混合卷积神经网络方法,该方法利用了预先训练的模型和迁移学习技术,允许使用有限的样本进行训练,并提高了模型的泛化能力。以上方法在缺陷检测领域中取得了重大突破,但仍然存在检测定位不够准确以及检测速度过慢等不足。近几年,钢材缺陷检测得到了进一步发展,He等[7]使用预先训练的ResNet提取多尺度特征,并使用多级特征融合网络(multi-view feature fusion network,MFN)对不同尺度的特征进行融合,得到的特征包含更多的位置信息,该方法的主要缺点是定位非常粗糙。Liu等[8]设计了MSC-DNet模型,该模型擅长精确定位缺陷,并能够准确检测中等尺度和大尺度缺陷,但对小尺度缺陷的检测能力不足。
DETR[9]是一种基于Transformer的端到端目标检测算法,为目标检测引入了全新思路,它将CNN和Transformer模型相融合,借助Transformer的全局特征关注机制使得DETR在全局特征学习方面表现出色。
DETR在没有使用传统锚框和非极大值抑制的情况下直接输出目标检测结果,极大地简化了目标检测模型的设计和训练过程。但同时DETR存在训练速度慢、查询模糊、小目标检测效果差等缺点。为了解决上述问题,研究者们提出了DETR的几种变体。Deformable DETR[10]利用多尺度特征提高了注意力机制的效率并加速了训练收敛;DAB-DETR[11]引入了4D参考点,并逐层迭代优化预测框;DN-DETR[12]通过添加查询去噪损失来解决DETR的缓慢收敛问题;DINO[13]通过应用对比学习和混合查询选择进一步改进DN-DETR。本文以DETR为基础网络,并在此基础上加以改进。
本文基于改进DETR算法的钢材表面缺陷检测网络总体结构如图1所示。算法整体结构由高效通道特征提取网络ECA-ResNet、双重注意力协同特征金字塔模块DAFPN、Transformer混合采样模块和预测头构成。
图1 本文算法的总体结构
Figure 1 General structure of the proposed algorithm
在预处理部分,针对钢材表面缺陷原始图像,首先,通过高效通道特征提取网络提取缺陷图像的特征;其次,通过双重注意力协同特征金字塔模块捕获多尺度缺陷特征,并进行多尺度特征融合,提高小目标检测效果;再次,对特征图进行位置编码,这里主要通过Transformer编码器进行混合采样操作,动态感知缺陷区域,丰富空间特征信息,并将采样结果传入Transformer解码器,解码器的输出结果将传递给前馈网络生成检测结果;最后,将检测结果与真实框二分匹配输出预测集,输出缺陷的类别、位置、置信度等信息。以下是该模型算法各个结构的详细介绍。
在ResNet特征提取主干网络中,不同通道之间可能存在一定的相关性和一些冗余信息。受ECA-Net[14]注意力模块的启发,在特征提取主干ResNet中添加高效通道注意力机制,着重提取图像中的缺陷特征信息(如颜色、纹理和形状)。高效通道特征提取主干网络模块如图2所示。
图2 高效通道特征提取主干网络模块
Figure 2 Efficient channel feature extraction backbone network module
图2中,首先,分别对主干Layer1、Layer2、Layer3、Layer4这4层输出的特征图进行全局平均池化,得到一个全局的特征描述;其次,经过全局平均池化之后,ECA对每个通道及其邻近通道的特征信息进行分析,进而捕获局部跨通道的交互信息,为了提高效率,ECA使用快速一维卷积生成通道权重,使得所有通道共享相同的学习参数;最后,不同的输入得到不同的通道权重,实现更高效的通道信息之间的交互。与此同时,在特征提取网络最后加入Conv模块,该模块旨在提取更深层次的语义信息,从而提高模型的检测效果。该卷积块最初使用1×1卷积减少通道数,随后通过3×3卷积缩小特征图大小,最后使用另一个1×1卷积增加通道数。通道信息交互公式[14]如下所示:
(1)
式中:ωi表示通道yi的权重;表示yi的k个相邻通道的集合;k为1D卷积的卷积核数,因此,k的个数是由输入的通道数来动态决定的。
钢材表面缺陷存在类间差异不明显、类内差异较大等突出特点,因此增加了模型检测的难度。针对多尺度缺陷,尤其是小尺度(检测目标在图像中像素小于32×32)[15]缺陷检测任务,本文在主干网络与Transformer之间引入改进的FPN网络结构以实现特征融合。在卷积神经网络(CNN),浅层特征图分辨率高,但语义信息有限且噪声较多;深层特征图分辨率低,语义信息丰富,却对细节特征感知欠佳。为减少小尺寸目标特征丢失,特别选取P1、P2、P3和P4这4个有效的特征层,并将其输入到改进的FPN网络中,双重注意力结构如图3所示。由于传统的FPN经过1×1卷积和上采样操作会丢失部分信息,严重影响尺度缺陷的检测效果,因此在FPN[16]横向传输路径上加入双重注意力机制。双重注意力机制由通道注意力和空间注意力模块组成。在通道注意力子模块上,先是进行不同数据维度转换,捕获各通道之间的依赖关系;在空间注意力子模块上,类似于SE[17]模块,先进行7×7卷积对通道进行降维操作,再通过7×7卷积对通道进行升维操作,实现空间维度的信息融合。在整个过程中,输入特征为F1∈RC×H×W,经过通道注意力后按元素乘法操作得到F2:
F2=MC(F1)⊗F1。
(2)
图3 双重注意力结构
Figure 3 Dual attention structure
经过空间注意力后按元素乘法操作得到F3:
F3=MS(F2)⊗F2。
(3)
式中:MC和MS分别代表通道和空间注意力操作;⊗为按元素乘法操作。
为更好地提取全局上下文信息和动态感知局部重要特征信息,本文在编码器中设计一种混合采样策略,引入可变形注意力机制与深度可分离卷积模块。可变形注意力机制进行稀疏采样,动态感知缺陷区域,降低模型计算量;深度可分离卷积则提取更丰富的全局空间特征信息。本文将注意力机制与卷积融合,实现以较小的计算量,提高模型对全局空间信息和局部重要特征的提取能力。Transformer混合采样模块如图4所示。特征图按位置添加可学习的位置编码后送入Transformer编码器中的混合采样模块,分别对特征图进行序列化操作和卷积操作,操作后得到的特征图传入到可变形注意力机制与深度可分离卷积这两条分支,分别进行稀疏采样和全局采样。整个可变形注意力模块的输入由3部分组成:图像特征x、需计算注意力的向量xk以及基准点pk,其中xk表示在图像特征x中对应基准点pk位置的向量。
图4 Transformer混合采样模块
Figure 4 Transformer hybrid sampling module
对于每一个注意力头,其首先通过对xk进行全连接操作获得l个相对于基准点pk的偏移量Δpmkl以及每个偏移点的权重Amkl,然后从图像特征x中根据基准点以及偏移量提取对应位置的特征值;其次,利用权重Amkl对这l个特征值加权求和,获得单个注意力头的输出;最后,将m个注意力头的输出通过全连接层合并从而获得最终的输出。图4中所示的L为3,m为2。以上过程可用如下公式[10]表示:
S=DeformAttn(xk,pk,x)=
(4)
式中:Wm∈RC×Cv、Wv∈RCv×C表示注意力头的可学习权重投影矩阵且C1=C/m;l为预设的偏移点个数;Δpmkl表示每个偏移点相对基准点pk的偏移量;Amkl表示每个偏移点的权重因子,计算公式如下所示:
(5)
在深度可分离卷积模块中,通过将逐点卷积和深度卷积相结合,对通道进行压缩和扩张,在减少模型参数量的同时提取空间缺陷特征T,学习全局特征信息。将深度可分离卷积提取的特征T进行序列化操作变为T1:
T1=Flatten(T)。
(6)
采用注意力加权方式生成融合权重[5],自适应地对不同特征进行加权,将T1与S通过权重进行加权融合,生成新的特征序列G:
G=Softmax(f1(T1,S))·T1+Softmax(f2(T1,S))·S。
(7)
式中:f1、f2分别表示点积注意力机制与双线性注意力机制;Softmax用于注意力权重归一化。
本文算法实验使用的钢材表面缺陷数据集为NEU-DET数据集。该数据集共计1 800张图像,包括氧化、斑块、裂纹、麻点、夹杂以及划痕。为了提高数据集的质量和数量,增强模型的泛化能力,采用了翻转、随机裁剪、色温变换等数据增强操作,最终生成15 000张钢材表面缺陷图像。将数据集随机划分为训练集、验证集、测试集,比例为7∶1∶2。
为了减小无关因素的影响,本研究进行的所有实验都在一台NVIDIA GeForce RTX 3090设备上完成。模型的训练轮次为300,批处理大小为 4。优化器与DETR相同,使用AdamW进行优化。学习率为0.000 1,动量为0.9,学习率在第100轮后衰减为原来的1/2,在150轮后衰减为原来的1/10。本文使用DETR模型的数据增强方法来确保实验之间的一致性。
本文的实验结果采用了目标检测领域常用的评价指标,包括精确率P、召回率R、平均精度均值mAP、参数量以及帧率。在计算平均精度均值时,分别使用了IoU阈值为0.5和0.5至0.95的情况,以评估模型在不同IoU下的表现。计算公式如下所示:
(8)
(9)
AP=P(R)dR;
(10)
(11)
式中:TP为真正例,即模型正确检测到的目标;FP为假正例,指模型误检测为目标的负样本;FN为假反例,即实际存在目标但未被模型检测到的样本;R衡量的是在所有实际为正样本的目标中,被模型正确识别出来的比例[18];AP基于P-R曲线计算得到,P-R曲线通过不同的置信度阈值,描绘了模型的精度和召回率的变化关系,随着阈值的提高,模型的召回率通常会下降,而精度会提高;mAP为各个类别AP的加权平均值,作为一个综合性指标,能够全面反映模型在不同类别上的表现,从而有效评估模型的总体性能。除此之外,利用参数量来反映模型大小,利用帧率来评价模型的检测速度,帧率表示每秒可以检测到的图片数量,它反映了模型在实际应用中的实时检测能力[19-20]。
为了评估模型的性能,本研究在NEU-DET数据集上进行实验,比较了主流目标检测器、同类改进模型以及本文提出的算法的表现,并对结果进行了分析,表1为对比实验结果。根据表1的结果,Faster R-CNN[3]在mAP@0.5上的表现为0.722,然而其帧率仅为8.9帧/s。虽然该模型能够保持一定的检测精度,但两阶段检测器存在较多计算冗余,导致其在速度上的表现不理想。相比之下,YOLOv7[21]和YOLOv8[22]的mAP@0.5分别提升至0.746和0.753,在精度上显著优于Faster R-CNN,同时它们的检测速度分别达到了42.7帧/s和58.3帧/s,能够满足实时检测的需求。YOLOv10[23]的检测精度与YOLOv8相当,但由于整体模型结构更加轻便,其检测速度优势尤为突出。帧率高达61.4帧/s。
表1 对比实验结果
Table 1 Comparison of experimental results
算法RmAP@0.5mAP@0.5∶0.95参数量/106帧率/(帧·s-1)Faster R-CNN[3]0.6690.7220.40741.48.9YOLOv7[21]0.6720.7460.42636.242.7YOLOv8[22]0.6900.7530.43843.758.3YOLOv10[23]0.6860.7570.43824.461.4DETR[9]0.6820.7430.44440.218.9Sparse-DETR[24]0.7160.7890.47340.929.2Deformable-DETR[10]0.7050.7850.46440.031.0DINO[13]0.7130.7760.45547.232.8MSC-DNet[8]0.7000.7790.46945.613.6DEA_RetinaNet [25]0.7040.7800.47341.312.9本文算法0.7320.8140.48236.344.2
在DETR系列算法中,基准模型DETR的mAP@0.5达到0.743。对比通用目标检测算法,针对钢材表面缺陷改进的模型性能表现良好;MSC-DNet[8]利用上下文增强模块丰富了多尺度信息,平均精度均值mAP@0.5达到了0.779,但是速度方面表现不佳;DEA_RetinaNet[25]中添加的通道注意力机制与自适应特征融合模块也增强了特征融合,mAP@0.5达到了0.780,但同时牺牲了速度。
本文所提改进后模型在保证一定速度的前提下提升了检测精度,mAP@0.5高达0.814,帧率为44.2帧/s。同时,召回率的提升和参数量的下降可以看出改进后的模型在性能上更具优势,满足工业对钢材表面缺陷检测精度和实时性的要求。图5为不同算法的P-R曲线。由图5可知,相较于DETR算法,本文算法的mAP得到了显著提升。
图5 不同算法的P-R曲线
Figure 5 P-R curves of different algorithms
为了进一步反映各模块在钢材表面缺陷检测的有效性,设计消融实验进行验证。通过在原DETR网络模型中依次嵌入对应的改进模型进行训练及测试,使用R、mAP@0.5、mAP@0.5∶0.95、参数量和帧率为定量评价指标,实验结果如表2所示。
表2 消融实验
Table 2 Ablation experiment
ECADAFPNHSMRmAP@0.5mAP@0.5∶0.95参数量/106帧率/(帧·s-1)0.6820.7530.44440.218.9√0.7010.7690.45140.227.6√0.7140.7800.46840.921.0√0.6910.7710.45937.836.7√√0.7140.7850.47239.628.9√√0.7060.7690.45737.740.1√√0.7250.7820.47537.136.5√√√0.7320.8140.48236.344.2
单独使用ECA通道注意力时,实验结果和DETR相比,R提升了1.9百分点,mAP@0.5和mAP@0.5∶0.95分别提升了1.6百分点和0.7百分点,帧率上升为27.6帧/s。完整模型与没有采用ECA通道注意力相比,mAP@0.5提升了1.2百分点。
说明ECA通道注意力对检测精度并没有带来很大的提升,但有效提升了检测速度。
单独使用DAFPN时,实验结果与DETR相比,R提升了3.2百分点,mAP@0.5和mAP@0.5∶0.95分别提升了2.7百分点和2.4百分点。完整模型相比没有采用DAFPN模块的模型,其mAP@0.5和mAP@0.5∶0.95都有所上升。说明在FPN模块中融入空间和通道双重注意力机制可以避免上采样小像素丢失问题,优化系统对钢材表面缺陷的检测性能。
采用HSM模块代替Transformer,相比DETR,其mAP@0.5和mAP@0.5∶0.95分别提升1.8百分点和1.5百分点,参数量下降了2.4×106,帧率上升到36.7帧/s。对于完整模型来说,使用HSM模块,mAP@0.5和mAP@0.5∶0.95分别提升了0.9百分点和1.0百分点,参数量下降到36.3×106,帧率上升到44.2帧/s。因此,在Transformer的编码器部分使用可变形注意力机制替换自注意力机制,使用稀疏采样代替全局计算,可以有效提升检测性能,同时可以显著减少参数量,提升检测速度。
当使用ECA-ResNet为骨干网络,引入DAFPN和HSM时,召回率、mAP@0.5和mAP@0.5∶0.95分别比基准方法高出5.0百分点、6.1百分点和3.8百分点,对钢材表面缺陷检测的性能较好,有效提升了钢材表面缺陷检测中小尺度检测精度较低的问题。在检测精度提升的同时,参数量下降了3.9×106,帧率上升了25.3帧/s。
为进一步突出模型的对比效果,选取NEU-DET数据集中特征不明显的部分图像进行了可视化实验,实验效果对比如图6所示。由图6可以看出,在斑块检测中,本文算法共检测出3个目标,基准算法DETR只检测出了1个目标;在麻点检测中,本文算法检测出2个目标,DETR仅检测出1个目标。可视化的结果验证了召回率的提升。本文提出的算法几乎不存在漏检(检测器未能检测到图像中实际存在的目标)的现象。这是由于改进后特征提取主干网络与多尺度层级特征的融合,有效减少了部分缺陷漏检现象发生,提升了模型的整体检测效果。同时,与其他主流目标检测探测器相比,本文算法在缺陷检测中展现良好的检测性能。
图6 实验效果对比
Figure 6 Comparison of experimental effect
本文针对钢材表面缺陷检测问题,提出了一种基于Transformer混合采样与多元注意力协同的钢材表面缺陷检测方法。该方法主要包括以下3个方面:构建出高效通道特征提取网络ECA-ResNet,提高复杂背景下感知和提取缺陷特征的能力;提出双重注意力协同特征金字塔网络DAFPN,解决小尺度缺陷漏检误检问题;设计出混合采样模块代替传统Transformer,动态感知缺陷区域和全局信息,以较小计算量提取更全面、更精细的特征信息。在NEU-DET数据集上的实验结果表明,与其他检测算法相比,所提改进后模型在精度与速度方面均表现良好。相较于原始的DETR算法,改进方法在召回率、mAP@0.5和mAP@0.5∶0.95分别高出5.0百分点、6.1百分点和3.8百分点,有效地提高了检测精度;参数量下降了3.9×106,有效地降低了模型复杂度。同时,该算法的帧率为44.2帧/s,满足工业检测的实时性要求。此外,改进算法还改善了小目标类别中漏检和误检现象,表现出比其他主流算法更好的性能。所提改进算法可以更好地应用于钢材表面缺陷检测任务,未来可进一步优化算法以提高检测精度和速度,同时保持模型轻量化。
[1] REDMON J, FARHADI A. YOLOv3: an incremental improvement[EB/OL]. (2018-04-08)[2025-02-08]. https:∥doi.org/10.48550/arXiv.1804.02767.
[2] BOCHKOVSKIY A, WANG C Y, LIAO H M. YOLOv4: optimal speed and accuracy of object detection[EB/OL]. (2020-04-23)[2025-02-08]. https:∥doi.org/10.48550/arXiv.2004.10934.
[3] REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.
[4] LIU Z, HU H, LIN Y T, et al. Swin Transformer V2: scaling up capacity and resolution[C]∥2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE, 2022: 11999-12009.
[5] FERGUSON M K, RONAY A, LEE Y T, et al. Detection and segmentation of manufacturing defects with convolutional neural networks and transfer learning[J]. Smart and Sustainable Manufacturing Systems, 2018, 2(1):137-164.
[6] FU G Z, ZHANG Z G, LE W W, et al. A multi-scale pooling convolutional neural network for accurate steel surface defects classification[J]. Frontiers in Neurorobotics, 2023, 17: 1096083.
[7] HE Y, SONG K C, MENG Q G, et al. An end-to-end steel surface defect detection approach via fusing multiple hierarchical features[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 69(4): 1493-1504.
[8] LIU R Q, HUANG M, GAO Z M, et al. MSC-DNet: an efficient detector with multi-scale context for defect detection on strip steel surface[J]. Measurement, 2023, 209: 112467.
[9] CARION N, MASSA F, SYNNAEVE G, et al. End-to-end object detection with Transformers[C]∥Computer Vision-ECCV 2020.Cham: Springer, 2020: 213-229.
[10] ZHU X Z, SU W J, LU L W, et al. Deformable DETR: deformable transformers for end-to-end object detection[EB/OL]. (2020-10-08)[2025-02-08]. https:∥doi.org/10.48550/arXiv.2010.04159.
[11] LIU S L, LI F, ZHANG H, et al. DAB-DETR: dynamic anchor boxes are better queries for DETR[EB/OL]. (2022-06-28)[2025-02-08]. https:∥doi.org/10.48550/arXiv.2201.12329.
[12] LI F, ZHANG H, LIU S, et al. DN-DETR: accelerate DETR training by introducing query denoising[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2024,46(4):2239-2251.
[13] ZHANG H, LI F, LIU S L, et al. DINO: DETR with improved DeNoising anchor boxes for end-to-end object detection[EB/OL]. (2022-03-07)[2025-02-08]. https:∥doi.org/10.48550/arXiv.2203.03605.
[14] WANG Q L, WU B G, ZHU P F, et al. ECA-Net: efficient channel attention for deep convolutional neural networks [C]∥2020 IEEE/CVF Conference onComputer Vision and Pattern Recognition. Piscataway: IEEE , 2020: 11531-11539.
[15] LIN T Y, MAIRE M, BELONGIE S, et al. Microsoft COCO: common objects in context[EB/OL].(2020-05-26)[2025-02-08].https://doi.org/10.48550/arXiv.2005.12872.
[16] LIN T Y, DOLLR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2017: 936-944.
[17] HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]∥2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway:IEEE, 2018: 7132-7141.
[18] 肖进胜, 赵陶, 周剑, 等. 基于上下文增强和特征提纯的小目标检测网络[J]. 计算机研究与发展, 2023, 60(2): 465-474.
XIAO J S, ZHAO T, ZHOU J, et al. Small target detection network based on context augmentation and feature refinement[J]. Journal of Computer Research and Development, 2023, 60(2): 465-474.
[19] 魏明军, 王镆涵, 刘亚志, 等. 基于特征融合和混合注意力的小目标检测[J]. 郑州大学学报(工学版), 2024, 45(3): 72-79.
WEI M J, WANG M H, LIU Y Z, et al. Small object detection based on feature fusion and mixed attention[J]. Journal of Zhengzhou University (Engineering Science), 2024, 45(3): 72-79.
[20] 薛均晓, 武雪程, 王世豪, 等. 基于改进YOLOv4的自然人群口罩佩戴检测方法[J]. 郑州大学学报(工学版), 2022, 43(4): 16-22.
XUE J X, WU X C, WANG S H, et al. A method on mask wearing detection of natural population based on improved YOLOv4[J]. Journal of Zhengzhou University (Engineering Science), 2022, 43(4): 16-22.
[21] WANG C Y, BOCHKOVSKIY A, LIAO H M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]∥2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway: IEEE, 2023: 7464-7475.
[22] REIS D, KUPEC J, HONG J, et al. Real-time flying object detection with YOLOv8[EB/OL]. (2023-05-17)[2025-02-08].https:∥doi.org/10.48550/arXiv.2305.09972.
[23] WANG A, CHEN H, LIU L H, et al. YOLOv10: real-time end-to-end object detection[EB/OL]. (2024-05-23)[2025-02-08].https:∥doi.org/10.48550/arXiv.2405.14458.
[24] ROH B, SHIN J, SHIN W, et al. Sparse DETR: efficient end-to-end object detection with learnable sparsity[EB/OL]. (2021-11-29)[2025-02-08]. https:∥doi.org/10.48550/arXiv.2111.14330.
[25] CHENG X, YU J B. RetinaNet with difference channel attention and adaptively spatial feature fusion for steel surface defect detection[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 70: 2503911.