随着深度学习技术的飞速发展,目标检测技术已经在工业、交通、医疗、遥感、安全等各个领域取得了广泛应用,如安全保障、工业检测等。目前目标检测算法可以分为以SSD系列算法与YOLO系列算法为代表的单阶段目标检测算法和以Faster R-CNN、FPN、Mask R-CNN等算法为代表的两阶段目标检测算法两大类。其中,两阶段目标检测算法先在区域生成一个可能包含待检测物体的候选框,再进行样本分类,这类算法精度较高,但速度较低。单阶段目标检测算法只需对目标提取一次特征即可实现目标检测,这类算法速度较快,但算法精度较低。
尽管近年来两类算法均已取得较大发展,但仍受限于小目标检测领域。小目标检测是目标检测中的一个难点,所谓小目标是指目标成像尺寸较小,例如在COCO数据集中,尺寸小于32×32像素的目标通常被定义为小目标。小目标有特征不明显、携带信息少等特点,如何提高小目标的检测精度一直是研究的热点。Liu等[1]在2016年提出的SSD算法直接回归目标类别与位置,在不同尺度的特征图上进行预测,但浅层特征图缺乏语义信息,深层特征图缺乏位置信息,导致小目标的检测准确率较低。Fu等[2]在2017年提出的DSSD算法使用Resnet101骨干网络替换SSD中的VGG16骨干网络,分类回归之前引入了残差模块,在SSD的辅助卷积层后又添加了反卷积层。相较于SSD算法,DSSD算法在小目标的检测精度上有了较大提高,但DSSD算法所使用的Resnet101网络结构过深,因此其检测速度较慢且模型结构灵活性差。Lin等[3]提出了FPN算法,通过引入由深到浅的特征信息,融合不同尺度特征图的方式保留语义信息。Tan等[4]提出了小目标检测算法EfficientDet,使用混合缩放的方法来缩放模型,并使网络自适应更新权重,但EfficientDet的基准模型是通过谷歌丰富的计算资源搜索得到的,计算花销较大。Qiao等[5]提出的小目标检测算法DetectoRS将FPN的输出结果重新输入到骨干网络中进行二次提取并且可以自适应选择合适的感受野,但切换空洞卷积操作耗时严重。Lim等[6]提出了小目标检测算法FA-SSD,在SSD算法基础上构建用于融合上下文特征的上下文信息模块,增强算法对特征图中上下文信息的利用能力,并且在算法中引入残差注意力机制,使得算法可以着重聚焦于图像的一部分,而不是整个区域。相较于SSD算法,FA-SSD算法在小目标的检测精度上有一定的提高,但FA-SSD算法丢失了浅层纹理信息,导致大、中目标的检测精度略有下降,并且算法结构较为复杂,检测速度较慢。Yang等[7]提出了小目标检测算法QueryDet,预测头在低分辨率的特征图上预测小目标的粗略位置,检测头采用粗略位置稀疏引导的高分辨率特征计算准确的检测结果。QueryDet算法充分利用了高分辨率特征图,又避免了背景区域的无效计算,在提高检测精度的同时保证了检测速度,但即使预测到了小目标的大概位置,检测头也可能无法对其定位,同时存在大、中目标错误激活检测头的可能,导致检测头处理无用位置,增加冗余计算。
相较于YOLO系列算法,SSD算法的结构较为简单,可改进性较强,并且SSD算法采用了不同尺度和长宽比的先验框,更适合小目标检测任务,因此本文在SSD算法的基础上进行改进。SSD使用了VGG16作为骨干网络,但存在提取目标信息能力不足、算法运行速度较慢等问题。本文使用网络层数适中且特征提取能力较强的Resnet50网络作为骨干网络替换原本的VGG16网络,同时,借鉴FPN的设计思想,使用以Resnet50为骨干网络的SSD与以Transformer结构为核心的网络层综合设计出特征融合模块,通过融合不同尺度的特征图来解决特征信息丢失的问题,提高小目标检测率,并且设计出以CBAM注意力机制与Selfattention机制为基础的混合注意力模块嵌入到网络结构中,以此关注并调整目标特征中的有效信息并联系不同特征图中的上下文信息。
SSD算法是一种单阶段的目标检测算法,通过卷积神经网络进行特征提取,使用不同的特征层进行检测输出。SSD算法在进行目标检测任务时会生成6个不同尺度的特征图,其中高层特征图感受野较大,适合检测大尺度目标,但缺乏位置信息;低层特征图感受野较小,适合检测小尺度目标,但缺乏语义信息。SSD算法结构如图1所示。
图1 SSD网络结构
Figure 1 SSD network structure
Transformer和VIT(vision transformer)两种基于Transformer结构的神经网络模型分别用于文本序列和图像序列的建模。这两种模型的共同点是采用了Transformer结构,但是在细节上有所不同。Transformer最初是作为一种用于自然语言处理的模型而被提出,其特点是能够准确地捕捉长文本序列中的依赖关系。与传统的递归神经网络(RNN)和卷积神经网络(CNN)相比,Transformer具有更快的训练速度和更好的并行性能。其中,自注意力机制Selfattention是Transformer的核心,它通过计算每个词语与所有其他词语之间的相关性来得到特征表示。在计算机视觉领域,CNN一直是最常用的算法。为了将Transformer应用于图像,VIT被提出。
VIT将图像看作是一个序列,并将每个像素点视为序列中的一个词语。VIT能够处理高分辨率的图像,并且在一些图像分类任务中具有与传统CNN相当的性能。相比于传统的CNN,Transformer和VIT可以并行计算,因此二者在训练速度和效率上具有更大的优势。
本文提出了一种基于多尺度特征融合以及混合注意力机制的Tr-SSD算法,如图2所示。首先,该算法将SSD原本的骨干网络VGG16替换为Resnet50,通过Resnet50网络提取输入图像中的位置信息与语义信息,相较于VGG16,Resnet50采用跨层链接,特征提取能力更强,能够有效提取小目标中的特征信息,并且在更深的网络层数时,较少发生梯度爆炸或消失等问题。其次,在SSD原有的前3个特征提取层(C1、C2、C3)前加入混合注意力模块(selective selfattention,SeSA),以强化特征图中的上下文信息,增强特征图中的关键信息。再次,算法加入了特征融合模块以丰富特征中的语义信息,增强网络对于小尺寸对象的特征提取能力。最后,将融合后的特征图送入检测头中,得到算法的最终检测结果,相较于SSD网络,Tr-SSD算法在小目标检测任务中的表现更好,在大、中目标的检测任务上同样取得了理想效果。
图2 Tr-SSD算法框架
Figure 2 Tr-SSD algorithm block diagram
由于小目标的尺寸较小,携带的特征信息也较为缺乏,在特征提取的过程中,小目标所携带的特征信息易受到噪声的干扰,导致小目标的检测率较低,因此,为了将目标与场景中的杂乱干扰进行区分,本文在CBAM(convolutional block attention module)基础上提出了SeSA混合注意力机制。CBAM是一种用于计算机视觉领域的注意力机制模块,主要用于增强算法对于通道与空间信息的关注,但其有两点不足:①没有捕获不同尺度的空间信息来丰富特征空间;②空间注意力仅仅考虑了局部区域的信息,而无法建立远距离的依赖。
SeSA由通道注意力、空间注意力和多头自注意力组成,是一种混合注意力机制,旨在增强目标检测网络中的特征信息和杂乱背景下的抗干扰能力,如图3所示。
图3 SeSA混合注意力模块
Figure 3 SeSA hybrid attention module
首先,SeSA使用通道注意力对输入特征进行通道维度上的细化,即对输入的特征F同时进行最大池化和平均池化,并使用共享全连接层和sigmoid归一化处理得到通道注意力权重wc:
wc=σ(MLP(AvgPool(F))+MLP(MaxPool(F)));
(1)
Fc=wc·F。
(2)
式中:σ(·)表示sigmoid操作。
其次,SeSA使用空间注意力对特征Fc进行空间维度的细化。空间细化时先进行最大池化和平均池化,再进行7×7卷积与sigmoid的操作:
ws=σ(f 7×7(AvgPool(Fc),MaxPool(Fc)));
(3)
Fs=ws·Fc。
(4)
式中:f 7×7表示7×7卷积;ws为生成的空间注意力。
最后,SeSA使用多头自注意力自适应学习特征间的远距离依赖关系。具体来说,假设Fs的维度为[B,H,W,C],其中B表示输入的样本数量;H和W分别表示特征图的高和宽;C表示特征图的通道数。进行多头自注意力时,通过3个不同的权重矩阵对输入特征图进行线性变换,得到3个新的特征图,分别表示查询Q、键K和值V:
(5)
式中:Wq、Wk和Wv均为线性变换时的权重矩阵。
变换后的特征图维度为[B,H,W,d_k],其中d_k为每个头部的特征向量维度。将变换后的特征图沿着最后一个维度分成h个头部。这里的h是一个超参数,用于控制切分后的头部数量。切分后的特征图维度为[B,H,W,h,d_k]。对于每个头部,分别计算查询和键的相似度矩阵,对相似度矩阵进行softmax归一化,得到每个键对查询的注意力权重。注意力加权后的特征图维度为[B,H,W,h,d_k],将每个头部的注意力加权结果进行拼接,并通过线性变换将拼接后的结果映射回原始特征向量的维度,得到最终的注意力加权结果。接下来将注意力加权后的特征图与输入特征图进行残差连接,最终得到输出特征图。处理后的特征图维度与输入特征图相同,均为[B,H,W,C]。以上操作可以表示如下:
O=Linear(Concat(Hi,Hi+1,…,Hh))+Fs;
(6)
Hi=Selfattention(Q,K,V)。
(7)
式中:Concat表示拼接操作;Hi表示第i个自注意力生成的特征图。
相较于CBAM,SeSA能够在加强远距离的信息依赖的同时,考虑不同尺度的空间信息,从而更好地挖掘特征信息,弥补了CBAM的缺点,更加适合小目标检测任务。
SSD算法使用多尺度的特征图进行预测,但浅层特征图中缺乏语义信息,导致SSD算法在进行小目标检测任务时表现较差,而深层特征图中包含大量的语义信息,因此,为了更好地利用深层特征图中的语义信息,提高算法对于小目标的检测率,本文提出一种基于Transformer网络层的特征融合模块,在中高层的较小尺寸特征图中构建TrFPN结构,融合不同尺度的特征信息。TrFPN块结构如图4所示,其中Ci(i=1, 2, 3, 4, 5)代表特征提取层。TrFPN块由一个上采样模块和多个Transformer层组成,通过以多头自注意力机制为核心的特征融合操作,保留了不同尺度下特征图的信息,减少了特征提取时的损失,并且有效联系了全局的特征信息,提高了本文算法对小目标的检测能力。
图4 TrFPN块结构图
Figure 4 TrFPN block structure diagram
在TrFPN中,对于第i个TrFPN块,其输入特征图为Fi(in),输出特征图为Fi(out),其中Fi(in)是由上一层输出特征图上采样得到的。第i个TrFPN块的特征融合公式为
(5)
式中:MHA表示多头自注意力机制;FFN表示前馈神经网络;LN表示层归一化。
为了更直观地展现所提出算法的算法流程与结构,Tr-SSD算法流程图如图5所示。
图5 Tr-SSD算法流程图
Figure 5 Tr-SSD Algorithm flow chart
算法1 Tr-SSD算法。
输入:X为图像数据、L为Resnet50、T为混合注意力模块、P为特征融合模块、epoch为模型训练次数;
输出:训练损失train_loss、验证损失val_loss、权重文件weight。
① 将X划分为训练集Xtrain、验证集Xval、测试集Xt;
② 初始化迭代次数为1;
③ epoch=300;
④ for i=1 to epoch do;
⑤ for x,y in Xtrain;
⑥ L模块对输入x提取初始特征,得到x′;
⑦ T模块对x′进行加强特征提取得到x″;
⑧ P模块对x″进行特征融合,得到p;
⑨ 计算train_loss;
⑩ for t,u in Xval;
L模块对输入p提取初始特征,得到t′;
T模块对t′进行加强特征提取得到t″;
P模块对t″进行特征融合,得到o;
计算val_loss;
获得300个权重;
选择最优权重对测试集进行评估;
获得平均精度均值mAP;
结束。
本文在目标检测领域公共数据集PASCAL VOC 07+12、小目标检测领域公开数据集HRSID、遥感领域数据集RSOD、自制吸烟数据集上进行实验。通过PASCAL VOC数据集测试算法的整体识别能力。PASCAL VOC 07+12数据集包含背景在内共21个类别,训练集为包含PASCAL VOC 07+12的训练集,测试集为VOC2007测试集。
为了验证本文算法对于小目标的测试能力,选取RSOD遥感数据集和小目标检测领域数据集HRSID进行实验。RSOD是一个包括飞机、油箱、游乐场和立交桥4种类别的遥感图像数据集。HRSID是2020年电子科技大学发布的高分辨率SAR图像中用于船舶检测的通用小目标数据集,该数据集共包含5 604张高分辨率SAR图像和16 951个舰船目标。HRSID和RSOD数据集的格式均为PASCAL VOC,训练集与测试集的比例均为8∶2。
为了进一步验证算法在实际应用中的能力,本文选取吸烟场景进行测试,同时为扩展小目标检测算法在实际场景中的应用做准备,如进行森林、工地、商场等禁烟场所的吸烟检测系统的研究。通过影视作品截图、网络爬虫采集、实地拍照3种方式自制了包含吸烟1种类别的吸烟数据集,以测试算法的泛化能力。自制吸烟数据集共4 445张图像,包含多种场景下的吸烟动作,数据集格式为PASCAL VOC,使用labelImg软件对图片进行标注,其中训练集与测试集比例为8∶2,自制吸烟数据集示例图片如图6所示。
图6 自制吸烟数据集示例
Figure 6 Sample homemade smoking data set
本文采用mAP(mean average precision)和FPS(frames per second)作为评价指标,mAP表示所有类别AP的平均值。
AP=p(r)dr;
(6)
(7)
式中:p(r)表示以召回率为横轴、准确率为纵轴的曲线;K表示类别数。
预测框与真实框的交并比IOU>0.5时,预测结果是正确的,交并比计算公式如下:
(8)
本文实验基于linux操作系统,实验框架Pytorch,使用SGD(stochastic gradient descent)进行学习率调整,初始学习率设置为0.001,权值衰减为0.05,batch size设置为16,迭代300次后得到最终的网络模型。实验均在型号为NVIDIA RTX 3090Ti,显存为24 GB的显卡上进行。
PASCAL VOC数据集数据量庞大且包括大、中、小目标,适合测试本文算法的综合目标检测能力。结果对比如表1所示。
表1 PASCAL VOC数据集定量实验结果对比
Table 1 Quantitative comparison of experimental results of PASCAL VOC data set
算法骨干网络输入尺寸/像素mAP/%FPS/(帧·s-1)Faster RCNNVGG161 000×60072.88.6Mask RCNNResnet501 000×60076.411.5YOLOv3[8]Darknet53416×41679.339.0YOLOv5[9]CSPDarknet53416×41680.444.3SSDVGG16300×30077.244.3512×51279.121.5DSSDResnet-101300×30079.211.4EfficientDet[4]efficientNet640×64080.240.6FA-SSD[6]VGG16300×30078.130.0MFFAMM[10]VGG16300×30080.735.2AD-SSD[11]VGG16300×30078.454.1DP-SSD[12]VGG16300×30081.230.7Tr-SSDResnet50300×30081.935.6512×51284.821.0
由表1可知,当图片输入尺寸为300×300像素时,本文算法的mAP值可以达到81.9%,检测速度为35.6 帧/s。相较于两阶段算法Faster RCNN、Mask RCNN,Tr-SSD算法mAP分别提高了9.1百分点、5.5百分点。当图片输入尺寸为300×300 像素时,相较于DP-SSD算法,Tr-SSD算法mAP提升了0.7百分点。相较于AD-SSD算法,Tr-SSD算法的网络结构相对较为复杂,FPS的值较低,但仍能满足实时检测要求,且Tr-SSD算法的mAP值提高了3.5百分点,整体性能优于AD-SSD算法。
为了更好地验证本文提出的替换骨干网络、使用以Transformer为核心的网络层与SSD构建FPN结构、增添混合注意力机制三者的有效性,在PASCAL VOC 07+12数据集上分别单独加入以上改进点进行消融实验,消融实验结果如表2所示。
表2 消融实验结果对比
Table 2 Comparison of ablation results
注:√表示模块生效。
算法Resnet50TrFPNSeSAmAP/%SSD77.2√78.1√√79.5√√79.3√√√81.9
由表2可知,相比较与SSD算法,将SSD骨干网络替换为Resnet50后mAP值提高了0.9百分点,证明了Resnet50具有更好的特征提取能力。将SSD骨干网络替换为Resnet50并添加TrFPN模块以后提高了2.3百分点,说明了TrFPN模块可以很好地融合有效特征信息,提高算法的检测精度。混合注意力机制的增添同样提高了网络检测精度,相较于原始SSD算法,增添混合注意力机制后的SSD算法mAP值提高了2.1百分点。所有改进点综合以后,mAP由原始SSD算法的77.2%上升到81.9%,提高了4.7百分点,证明了替换骨干网络、使用以Transformer为核心的网络层与SSD构建FPN结构、增添混合注意力机制这三者的有效性。
本文通过多种算法在HRSID数据集中得到的实验数据进行对比,测试本文算法对于小目标的检测能力,定量实验数据对比结果如表3所示。
表3 HRSID数据集定量实验对比
Table 3 Quantitative experimental comparison of HRSID data sets
算法输入尺寸/像素骨干网络mAP/%Faster RCNN1 000×600VGG1680.8SSD300×300VGG1680.7YOLOv5416×416CSPDarknet5383.3CenterNet[13]512×512Resnet1884.6FCOS[13]800×1 024Resnet5084.9Free_anchor[14]512×512Resnet5086.4ASAFE[15]500×500Resnet5085.1Efficient-YOLO[16]800×800MobileNetv387.0Tr-SSD300×300Resnet5087.5
由表3可知,相较于对比算法中的最优算法Efficient-YOLO,Tr-SSD算法的mAP值提升了0.5百分点,这是由于在检测过程中,Tr-SSD算法所使用的混合注意力机制建立了特征间的全局联系,有效增强了小目标的特征信息,并且在特征融合的过程中,充分利用了特征的语义信息,有效提高了对于小目标的检测率。
RSOD遥感数据集中的大部分目标为小目标,通过各类算法在RSOD遥感数据集中得到的实验数据进行对比,测试本文算法对于小目标的检测能力,定量实验数据对比结果如表4所示。
表4 RSOD遥感数据集定量实验对比
Table 4 Quantitative experimental comparison of RSOD remote sensing datasets
算法骨干网络FPS/(帧·s-1)mAP/%Faster RCNNVGG161881.7SSDVGG164879.2RSSDVGG163682.9DSSDResnet-1011784.3UAV-YOLO[17]Darknet533077.8DC-SPP-YOLO[18]DenseNet3376.6Tr-SSDResnet505688.4
从表4可以看出,Tr-SSD算法在保持检测速度的同时检测精度达到88.4%,优于其他算法。与对比算法中最优检测精度相比,mAP提高了4.1百分点,证明了Tr-SSD算法能够充分利用小目标所携带的特征进行检测,使得检测精度相较于其他算法有所提升,且满足实时检测要求。
在RSOD数据集中进行热力图实验,结果如图7所示。图7(a)为未添加混合注意力机制所得到的热力图,可以看到算法关注的位置并不精确。图7(b)为添加混合注意力机制后的热力图,可以看到添加混合注意力机制后算法着重关注待检测目标,抗干扰能力较强,证明了混合注意力机制的有效性。
图7 RSOD数据集热力图对比
Figure 7 Heat map comparison of RSOD data sets
自制吸烟数据集中包含了各种复杂情况下的吸烟目标,本文通过对比各类算法在自制吸烟数据集上的表现,测试Tr-SSD算法的泛化能力,实验数据对比结果如表5所示。由表5可知,Tr-SSD算法的mAP值在自制吸烟数据集中取得了最优水平,因此,Tr-SSD算法具有更好的鲁棒性与泛化性。
表5 自制吸烟数据集定量实验对比
Table 5 Quantitative experimental comparison of homemade smoking data sets
算法输入尺寸/像素骨干网络mAP/%Faster RCNN1 000×600VGG1675.1SSD300×300VGG1678.5RSSD300×300VGG1679.9DSSD300×300Resnet-10180.2IPG-Net1 000×600IPGnet-10184.9Tr-SSD300×300Resnet5086.7
为了更直观的表示本文算法在实际应用中的检测效果,本文选取RSOD数据集与HRSID数据集进行算法的定性实验,如图8所示。
图8 定性实验效果对比
Figure 8 Comparison of qualitative experimental effects
图8(a)中RSOD图片包含17个待检测目标,HRSID图片包含8个待检测目标。图8(b)为SSD算法的检测效果,在RSOD图片中,SSD算法共检测出13个目标,漏检5个目标,错检1个目标;在HRSID图片中,SSD算法共测出5个目标,漏检3个目标。这是因为SSD算法在提取小目标图像特征的过程中,易受到背景中的杂乱信息干扰,出现错检与漏检。由图8(c)可知,Tr-SSD算法在2张待检测图片中分别检测出了16个、8个目标,且没有出现错检目标。
Tr-SSD算法对于密集小目标的检测精度明显优于SSD算法,且Tr-SSD算法的错检率、漏检率也明显低于SSD算法,这是由于Tr-SSD算法使用了基于Transformer的特征融合策略与混合注意力机制,增强了小目标的位置信息,并且抑制了杂乱背景下的无用信息。
本文针对小目标检测任务的检测难度较大、检测精度较低等问题,提出了一种结合混合注意力机制与多尺度特征融合的小目标检测的Tr-SSD算法。算法通过替换原本的特征提取网络来减少特征提取时的信息丢失,提高特征提取能力,并且在网络的中尺度特征图中通过设计混合注意力增强有效信息的表达,同时建立不同尺度特征图中的远距离依赖。在中高层特征图中设计了一个特征融合模块,将相邻特征图进行融合,以增强特征图的语义信息。实验结果表明,Tr-SSD算法精度优于当前目标检测领域性能较好的算法,同时能够满足实时检测要求,可用于实时目标检测任务。下一步将进行网络的轻量化,进一步提高网络的检测速度。
[1] LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[J].Computer Vision,2016,9905:21-37.
[2] FU C Y, LIU W, RANGA A, et al. DSSD: deconvolutional single shot detector[EB/OL]. (2017-01-23) [2023-09-17]. https:∥arxiv.org/abs/1701.06659.
[3] LIN T Y, DOLLR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]∥2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway: IEEE, 2017: 936-944.
[4] TAN M X, PANG R M, LE Q V. EfficientDet: scalable and efficient object detection[C]∥2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway: IEEE, 2020: 10778-10787.
[5] QIAO S Y, CHEN L C, YUILLE A. DetectoRS: detecting objects with recursive feature pyramid and switchable atrous convolution[C]∥2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway: IEEE, 2021: 10208-10219.
[6] LIM J S, ASTRID M, YOON H J, et al. Small object detection using context and attention[C]∥2021 International Conference on Artificial Intelligence in Information and Communication (ICAIIC). Piscataway: IEEE, 2021: 181-186.
[7] YANG C, HUANG Z H, WANG N Y. QueryDet: cascaded sparse query for accelerating high-resolution small object detection[C]∥2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway: IEEE, 2022: 13658-13667.
[8] REDMON J,FARHADI A.YOLOv3:an incremental improvement[EB/OL].(2018-04-08)[2023-09-17]. https:∥arxiv.org/abs/1804.02767.
[9] 马学森, 马吉, 蒋功辉, 等. 基于注意力机制和多尺度特征融合的绝缘子缺陷检测方法[J]. 南京大学学报(自然科学), 2022, 58(6): 1020-1029.
MA X S, MA J, JIANG G H, et al. Insulator defect detection method based on attention mechanism and multi-scale feature fusion[J]. Journal of Nanjing University (Natural Science), 2022, 58(6): 1020-1029.
[10] QU Z, HAN T Q, YI T M. MFFAMM: a small object detection with multi-scale feature fusion and attention mechanism module[J]. Applied Sciences, 2022, 12(18): 8940.
[11] NI J, WANG R, TANG J. ADSSD: improved single-shot detector with attention mechanism and dilated convolution[J]. Applied Sciences, 2023, 13(6): 4038.
[12] SHAN D R, XU Y L, ZHANG P, et al. DPSSD: dual-path single-shot detector[J]. Sensors, 2022, 22(12): 4616.
[13] SHI H, CHAI B Q, WANG Y P, et al. A local-sparse-information-aggregation transformer with explicit contour guidance for SAR ship detection[J]. Remote Sensing, 2022, 14(20): 5247.
[14] ZHANG X S, WAN F, LIU C, et al. Learning to match anchors for visual object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(6): 3096-3109.
[15] SHI H, FANG Z H, WANG Y P, et al. An adaptive sample assignment strategy based on feature enhancement for ship detection in SAR images[J]. Remote Sensing, 2022, 14(9): 2238.
[16] YU J M, WU T, ZHANG X, et al. An efficient lightweight SAR ship target detection network with improved regression loss function and enhanced feature information expression[J]. Sensors, 2022, 22(9): 3447.
[17] LIU M J, WANG X H, ZHOU A J, et al. UAV-YOLO: small object detection on unmanned aerial vehicle perspective[J]. Sensors, 2020, 20(8): 2238.
[18] HUANG Z C, WANG J L, FU X S, et al. DC-SPP-YOLO: dense connection and spatial pyramid pooling based YOLO for object detection[J]. Information Sciences, 2020, 522: 241-258.