未爆弹是指在战争或军事演练时遗留的未引爆的榴弹、火箭弹、航弹、迫击炮弹、地雷等危险物品。由于其易于引爆等特性,对民众的生命财产安全、日常生活以及军队的演练活动构成严重威胁[1]。当前,全球众多国家均面临着未爆弹带来的安全隐患,这使得未爆弹的探测和清除工作成为各国高度关注并亟待解决的重大问题[2-4]。传统的未爆弹探测方法主要有磁法探测、电磁感应法探测、红外技术探测等,但是人工探测危险性高、效率低下,探测结果虚警率较高[5-7]。为应对人工排爆带来的效率低下和高度危险性等问题,现已有替代人工探测及处理的排爆机器人和排爆无人机等装备运用。其主要通过人工操作无人装备,通过摄像头采集的图像数据进行探测和处置[8-9]。使用无人装备能够提高操作人员的安全性,但在背景复杂、存在遮挡、外观识别度差的情况下,通过操作无人装备人工辨别未爆弹,会消耗操作人员大量精力,而且效率低下。如何运用无人装备自动探测和清除未爆弹,降低人员精力消耗、提高探测精度和处理效率,无疑具有极其重要的现实意义。
近年来随着人工智能等新技术的不断涌现,使得以卷积神经网络为基础的目标检测技术得到长足的进步。胡聪利用基于Faster R-CNN的未爆弹检测技术获取图像中未爆弹等目标物体及其位置信息[10]。单成之提出一种基于关键点的未爆弹图像目标检测算法,通过以ResNet-50为主干网络,同时引入分离注意力模块,提升了对未爆弹类别和位置信息检测的精度[11]。陈益方提出一种基于改进YOLOv8的SAR图像飞机目标检测算法,通过引入可变形卷积和全局注意力机制,实现了模型复杂度和检测精度的平衡[12]。孙阳提出的一种基于通道剪枝的YOLOv7-tiny输电线路异物检测算法,改进了原骨干网络,引入了多样化分支块模块,与层自适应幅度的剪枝方案,实现了模型精度的提升和模型大小的大幅压缩[13]。由此可看出卷积神经网络在目标检测方面应用广泛,但应用于未爆弹目标检测较少,应用技术相对落后,使用的数据集均通过网络搜集,有效性不强,同时使用的深度模型参数多、计算量大,使其部署应用于无人装备上有较大难度。
受高效多尺度注意力(EMA)[14]算法提升特征提取能力与剪枝技术能够提高检测速度、降低运算量启发,针对上述出现的问题,提出了一种基于改进YOLOv8n的轻量化未爆弹检测方法。一是通过在YOLOv8n模型的主干网络最后加入高效多尺度注意力EMA模块,有效增加网络模型对未爆弹重要特征的关注度,进而提升模型对未爆弹的检测精度,二是针对模型轻量化部署需要,通过对YOLOv8n模型进行剪枝、微调,使模型在保持一定精准度情况下,大幅降低参数量、运算量和模型体积,从而便于部署于排爆无人装备中。
YOLOv8相比之前较为流行的YOLOv5[15-16],无论是在检测精度还是速度方面都有长足进步。YOLOv8根据不同的使用场景目的分为n、s、l、m、x共5种模型,网络深度依次加深,检测精度依次增高。YOLOv8的5种不同模型的参数信息如表1所示。
表1 5种YOLOv8模型参数信息
Table 1 Five types of YOLOv8 model parameter information
模型名称图像尺寸/像素mAPval50-95/%速度CPUONNX/ms参数量/M运算量/GFLOPsYOLOv8n64037.3 80.4 3.28.7YOLOv8s64044.9128.411.2 28.6YOLOv8m64050.2234.725.9 78.9YOLOv8l64052.9375.243.7165.2YOLOv8x64053.9479.168.2257.8
YOLOv8[17-18]的网络结构主要由为输入端(input)、骨干网络(backbone)、颈部网络(neck)和头部网络(head)4个部分组成,其基本框架如图1所示。
图1 YOLOv8网络基本框架
Fig.1 Basic framework of the YOLOv8 network
输入端主要对图像进行马赛克(Mosaic)数据增强、自适应锚框计算和自适应缩放。骨干网络部分采用了Darknet53结构,其中包括基本卷积单元(Conv)、空间金字塔池化模块(SPPF)和提高特征提取能力的C2f模块。颈部网络采用PANet(path aggregation network)特征融合,用于在不同尺度的特征图之间进行信息传递和融合,以增强多尺度特征表示能力。头部网络采用解耦头(decoupled head)和无锚框(anchor-free)策略,解耦后包括分类分支和回归分支。其主要进行损失计算和目标检测框筛选。其中损失计算过程主要包括正负样本分配策略和Loss计算。正负样本分配策略采用典型的动态分配策略Task Aligned Assigner,根据分类与回归的分数加权结果选择正样本。Loss计算包含分类和回归两个分支。其中分类Loss采用二元交叉熵损失(binary cross entropy loss,BCE Loss)训练,回归分支则采用分布焦点损失(distribution focal loss,DF Loss)和完全交并比损失(complete intersection over union loss,CIoU Loss)相结合的方式,以提升锚框的精确度。其网络框架中主要模块及功能如表2所示。
表2 YOLOv8网络中主要模块功能
Table 2 Functions of the main modules in YOLOv8 network
模块功能Conv基本卷积单元,通过二维卷积、批归一化、SiLU激活函数,生成特征图,用于降采样及增加通道数。C2f通过串联加并联结构,获取更多残差信息,用于提高特征提取能力。SPPF通过空间金字塔池化操作,融合局部和全局特征,提高对多尺度目标的检测能力。Upsample上采样,扩大图像尺寸。Concat将不同尺度的特征图在通道维度上拼接形成更大的特征图,以提高检测精度。Detect通过对输入特征图分为2个分支,分别进行卷积,并分别计算框回归损失和类别分类损失,并最终输出检测结果。
相比YOLOv5,YOLOv8在骨干网络、头部网络及训练策略上进行了较大改进。YOLOv8在骨干网络中将YOLOv5的C3模块替换为C2f模块,通过并行更多的梯度流分支、对不同尺度模型调整不同的通道数,实现轻量化与模型性能的进一步提升。在头部网络中选择了解耦头和Anchor-free策略,相比YOLOv5的耦合头和Anchor-based策略,减少了锚框预测数量,加速非最大抑制,配合后期训练阶段关闭马赛克数据增强操作,YOLOv8实现了更快的收敛速度和更高的计算效率。
针对当前未爆弹检测精度低、检测速度较慢等问题,提出了一种基于改进YOLOv8n的轻量化未爆弹检测方法,本方法主要从以下3个方面进行优化和改进,以提高未爆弹检测精度及检测性能。首先,为轻量化部署于排爆无人装备且要求检测精度高、检测速度快、运算量较小,通过对比YOLOv8的5种不同模型的参数信息,选择了YOLOv8n版本。其次,为增强主干网络的特征提取和特征融合能力,使模型更好地关注未爆弹特征,提高未爆弹检测精度,引入基于跨空间学习的高效多尺度注意力(EMA)机制。最后,通过对训练好的模型进行剪枝、微调,在提高检测速度、降低运算量同时减小模型体积,以便轻量化部署于排爆无人装备。
神经网络中的注意力机制[19-20]是一种资源分配策略,其目的是在计算能力受限的情况下,将计算焦点集中在关键信息上,同时减少对次要信息的关注度,从而有效应对信息过载的难题。多尺度注意力机制(EMA)模块在深度神经网络中,通过使用不同尺度卷积并行采样和跨空间学习方法,融合不同尺度的上下文信息实现对高级特征图的像素级关注,从而有效避免网络过多的顺序处理和较大的深度,提升网络模型的处理效率和准确性。EMA的整体结构如图2所示。
图2 EMA注意力机制
Fig.2 EMA attention mechanism
EMA使用3条并行分支来提取分组特征图。其中采用两条1×1并行分支分别沿水平和垂直两个空间方向对通道进行编码,而后将两个编码特征连接在图像高度方向上并共享相同的1×1卷积,最后使用乘法将两个通道注意力图聚合成一个特征图。另外并行采用一条3×3分支卷积捕获局部跨通道交互,以扩大特征空间。而后针对2个通道生成的特征图通过跨空间学习方法分别输出2个空间注意力特征图。最后将2个特征图进行权重值聚合得到与输入特征图像大小相同的特征图。
图2中EMA注意力机制主要模块功能含义如表3所示。
表3 EMA中主要模块功能
Table 3 Functions of the main modules in EMA
模块功能Groups对输入特征图进行分批分组。X Avg Pool对每组特征图进行一维水平全局池化。Y Avg Pool对每组特征图进行一维垂直全局池化。Avg Pool2D全局平均池化。Concat+Conv对特征向量进行拼接并共享卷积。Re-weight通过乘法实现跨通道交互对特征图每个位置的权重进行调整。GroupNorm对每组特征图进行归一化。MatMul对注意力权重与跨通道交互后的特征图进行加权求和。
将多尺度注意力机制EMA引入YOLOv8n模型结构的骨干网络,改进后的模型网络如图3所示。如图3左下角所示,EMA注意力机制添加在SPPF模块和Upsample模块之间。通过调整不同通道的重要性和提高特征图的像素级关注度从而提高模型性能和对未爆弹的特征表达能力。
图3 改进后的模型网络
Fig.3 Improved YOLOv8 network
目前深度神经网络在保持高精准度的同时,其模型体积和运算量大成为部署于有限资源设备上的一道阻碍,而使神经网络模型轻量化的剪枝算法[21-23]成为其有力破除工具之一。模型剪枝是将模型网络结构中占用大量资源的冗余部分移除,在降低模型参数量、减少运算量的情况下还能够保持几乎不变的检测精准度和准确率。Network Slimming模型剪枝策略对模型剪枝具有较好的性能,其通过设置缩放因子γ阈值来剪裁相应的通道,实现通道级别的结构化剪枝,从而实现对模型体积及计算量大幅减小的情况下实现精准度和准确率只有较小幅度的降低。
对改进后的网络模型使用Network Slimming剪枝策略,移除部分冗余通道,实现模型的轻量化。通过对卷积核和全连接层每个通道都引入缩放因子γ,通过训练,其部分缩放因子会趋近于0,然后根据设置阈值对模型进行通道级别剪枝,而后将原始网络的权重重新赋值给剪枝后的网络,重新对其微调训练,使其检测精准度逼近剪枝前的精准度,最终完成模型的剪枝。剪枝前后网络示意图如图4所示。
图4 初始网络与剪枝后网络对比
Fig.4 Comparison between initial network and pruned network
在YOLOv8n使用分布焦点损失(DF)和完全交并比损失(CIoU)损失以一定权重比例加权,可以得到最终的锚框回归损失值。其分布焦点损失的计算如式(1)所示:
Ldf=-((yi+1-y)log(Si)+(y-yi)log(Si+1))
(1)
式(1)中: Si表示模型对标签值yi对应的概率值。Si+1表示模型对标签值yi+1对应的概率值。
通过综合考虑重叠区域、中心点位置和边框尺寸,使得模型在检测不同大小和形状的目标时具有更强的适应性,能够提高模型检测性能。完全交并比损失计算如式(2)所示:
(2)
其中,和Bgt分别代表预测框和目标框。
a是正交平衡参数:
v是衡量目标框与预测框宽高比的一致性:
wgt和hgt分别表示目标框的宽度和高度,w和h分别表示预测框的宽度和高度。
在模型轻量化后,引入响应剪枝损失。在具体剪枝过程中,通过在模型的卷积和全连接层之后、非线性处理前插入BN层,并对每个通道都引入一个缩放因子γ,同时在损失函数中加入L1稀疏正则化惩罚项,而后对网络权重和缩放因子γ进行联合训练,训练后部分缩放因子会趋近于0。而后排序所有通道的缩放因子,根据设置的裁剪比例,得到缩放因子裁剪阈值。最后遍历所有通道,根据裁剪阈值实现对模型通道级别的结构化剪枝。
剪枝训练损失函数如式(3)所示。
(3)
式(3)中: (x,y)表示训练数据和标签,W表示网络的训练参数,第一项是CNN的训练损失函数,g(·)是在缩放因子上的乘法项,L1正则化项即为g(s)=|>s|,λ是两项的平衡因子。
为了将YOLOv8n算法创新性应用于未爆弹识别,专门制作了未爆弹数据集。本实验数据集由真实未爆弹照片、网络资源收集整理,并使用标注工具LabelImg进行手工标注,每张图像都有对应的XML文件,此文件主要包含图像的标签、标注框等信息。为了防止训练YOLOv8n网络模型产生过拟合现象,对数据集进行了增广扩充操作,增广后的图像对应的标签和标注框位置与原图像保持不变,以确保增广后的数据集与原始数据集在标签上的一致性。增广前数据集为549张,增广后数据集总量达到3 279张,部分数据集示例如图5所示。
图5 未爆弹数据集示例
Fig.5 Sample images of the unexploded ordnance dataset
数据集采用了5种数据增广扩充方式,以丰富数据集的多样性和提升模型的泛化能力。具体包括:
1) 天气效果变换:对图像进行雾化处理、模拟下雪天和下雨天等天气效果,以模拟不同天气条件下的图像变化。
2) 旋转变换:对图像进行随机角度的旋转操作,以模拟拍摄角度的变化,增加模型的旋转不变性。
3) 平移变换:对图像进行左移或右移操作,但平移的尺寸需控制在一定范围内,以避免关键信息的丢失,从而增强模型对物体位置变化的鲁棒性。
4) 对比度变换:调整图像的饱和度,模拟不同光照条件下的亮度变化,提高模型在不同光照条件下的适应能力。
5) 噪声扰动:在图像上添加随机噪声,模拟图像在采集或传输过程中可能引入的噪声干扰,以增强模型的抗噪能力。
本试验在64位操作系统Ubuntu 20.04LTS环境下进行,GPU采用GeForce RTX 2 080Ti,显存为11 GB,主机内存为64 GB,编程语言为Python 3.11.3,使用CUDAv11.3对GPU进行加速,基于深度学习框架Pytorch 2.0.1进行训练,Torchvision版本为0.15.2。本实验模型训练具体参数配置如表4所示。
表4 模型参数配置情况
Table 4 Experimental parameter configuration
名称参数名称参数epochs400batchsize32imagesize640×640momentum0.937reg_max16初始学习率0.01权重衰减0.000 5优化器SGD
本实验模型训练的输入图像尺寸均调整为640×640,训练中迭代次数为400,batchsize为32,使用SGD优化器,初始学习率为0.01,学习动量为0.937,reg_max为16,权重衰减为0.000 5。
在目标检测算法中,精确度(Precision)、召回率(Recall)、平均准确率(average precision,AP)、浮点计算量(floating point operation per second,FLOPs)、参数量(Parameters)是评估模型性能的重要指标。同时为评估模型实际应用情景,采用每秒处理帧率(frames per second,FPS)、模型大小(Model Size)作为模型实时性评估指标。其中精确度、召回率、平均准确率的计算公式如式(4)—式(6)所示:
(4)
(5)
AP=Precision(r)dr
(6)
其中: TP表示真实标签为正类且预测也为正类的样本数,FP表示真实标签为负类但预测为正类的样本数,TN表示真实标签为负类且预测也为负类的样本数,FN表示真实标签为正类但预测为负类的样本数。
为保证FPS计算的准确性,实验中batchsize设置为32,并让显卡温度稳定后进行200次测试取平均值。
3.4.1 数据增广前后模型训练
为了检验数据增广泛化性能,随机选择部分原始数据,而后对每张图像从5种增广方式中随机选取几种对其进行增广得到部分原始数据增广后数据集,最后将增广前后数据使用相同模型相同参数进行训练并测试。
实验中从原始数据中随机选择500张图像,按照8∶1∶1划分为训练集400张、验证集50张和测试集50张,而后将训练集和验证集进行随机增广得到增广后的训练集和验证集为1 200张、150张。实验均采用YOLOv8n原始模型,训练参数均按照表4进行配置。部分数据集增广前后模型训练的精确度和召回率如图6所示。
图6 模型训练的精确度和召回率
Fig.6 Precision and recall of the model training
图6(a)表示使用部分原始数据集进行模型训练的精确度和召回率,其模型迭代到235次后精度无提升自动停止训练。图6(b)表示使用部分原始数据增广后的数据集进行模型训练的精确度和召回率,其模型迭代到353次后精度无提升自动停止训练。
3.4.2 改进后的YOLOv8n模型训练
使用对所有原始数据进行5种增广操作后形成的3 279张图像作为训练数据集,按照8∶1∶1划分为训练集、验证集和测试集,而后按照表4设置参数进行训练。经过400次迭代,模型训练的精确度和召回率如图7所示。
图7 改进后模型训练的精确度和召回率
Fig.7 Precision and recall of the improved model training
3.4.3 基于改进后的YOLOv8n模型剪枝
对改进后的YOLOv8n模型在其损失函数中加入L1稀疏正则化惩罚项,首先设置超参λ为0.000 1,并设置剪枝阈值为0.5、0.6、0.7、0.8、0.9共5个阈值分别进行200次稀疏训练,而后通过加载剪枝前模型权重对每个剪枝模型进行200次微调训练,最终得到5个不同剪枝阈值的剪枝模型。
3.5.1 数据增广前后模型训练实验结果分析
为对比数据增广前后对模型训练结果的影响,进行了数据增广前后模型训练对比实验,实验结果如表5所示。
表5 部分数据增广前后模型实验结果对比
Table 5 Comparison of model experimental results before and after the augmentation of partial data %
模型精确度召回率平均准确率增广前模型90.1279.7389.73增广后模型92.6587.9490.86
通过对比实验可看出,数据增广后的精确度和召回率都比增广前分别提高2.65%和8.21%。通过对数据集进行增广后应用于模型训练,能够有效提高模型对目标检测的泛化性能。
3.5.2 不同算法对比实验分析
为验证使用多尺度注意力机制的YOLOv8n(改进模型),相比当前热门目标检测模型的优越性,以精确度、召回率、平均准确率作为评价指标,将模型与Faster-RCNN、YOLOv8n进行对比实验,实验结果如表6所示。
表6 各模型实验结果对比
Table 6 Model experiment results comparison %
预测模型精确度召回率平均准确率Faster-RCNN92.1793.7193.41YOLOv8n95.0094.0695.43改进模型99.1296.7298.64
实验中,通过Faster-RCNN与改进模型进行横向对比。在保持超参数调节一致的前提下,相较于Faster-RCNN,改进模型在精确度、召回率和平均准确率方面均取得了显著的提升,精确度提升了6.95%,召回率提升了3.01%,平均准确率提升了5.23%。此外,通过与改进前的YOLOv8n纵向对比,改进模型在精确度、召回率和平均准确率上同样表现出较大的提升,分别提升了4.12%、2.66%和3.21%。
3.5.3 模型剪枝实验对比分析
为选取最佳模型,通过不同剪枝阈值下的改进模型进行性能对比,以精确度、召回率、参数量、浮点计算量、FPS和模型大小作为评价指标。不同剪枝阈值对改进模型效果对比如表7所示。
表7 不同剪枝阈值下的改进模型实验结果对比
Table 7 Comparison of experimental results of the proposed model under different pruning thresholds
剪枝阈值精确度/%召回率/%参数量/M运算量/GFPS/帧模型大小/MB0.595.6791.821.774.5833.33.20.697.3294.121.965.2714.23.50.798.4095.522.376.1588.24.30.898.9696.282.626.7500.04.90.999.0896.642.977.8454.55.71.099.1296.723.168.9416.76.5
实验中,通过设置不同剪枝阈值、其他参数一致情况下对模型进行剪枝训练。通过与未剪枝前模型各项指标进行对比,剪枝阈值在0.7以上时精确度和召回率下降不明显,阈值为0.7时分别下降0.73%、1.24%,但参数量、计算量和模型大小分别减小25%、31.5%、33.8%,FPS帧率提高29.2%。剪枝阈值在0.7以下时精确度和召回率下降较为明显,阈值为0.6时分别下降1.82%、2.69%。因此剪枝模型选择剪枝阈值为0.7的模型作为剪枝优化模型。剪枝优化模型识别效果如图8所示。
图8 剪枝优化模型对未爆弹识别结果
Fig.8 Recognition results of unexploded ordnance by the pruned and optimized model
实验结果表明,使用通道剪枝与多尺度注意力机制的YOLOv8n模型对未爆弹检测效果显著。如图8所示,即便在面临未爆弹与环境颜色相近、遮挡等复杂多变的检测环境时仍能精准无误地检测出未爆弹,这充分展现了其出色的鲁棒性。
本文提出了一种基于改进YOLOv8n的轻量化未爆弹检测方法,旨在对背景复杂、有遮挡的未爆弹有更好的检测效果,并有利于部署于排爆无人装备。该方法运用跨空间学习的高效多尺度注意力EMA提升特征提取,Network Slimming剪枝策略对模型剪枝、微调,实现了检测精准度的提高,同时模型大小和运算开销的大幅降低。
1) 通过实验验证,相较于Faster-RCNN、YOLOv8n模型,改进模型在精确度、召回率和平均准确率方面提升了6.95%、3.01%、5.23%和4.12%、2.66%和3.21%。
2) 通过不同剪枝阈值下模型性能对比,剪枝阈值设置为0.7时,模型综合性能表现最优,能够满足排爆无人装备的部署需求。
未来,将经过轻量化的未爆弹检测模型部署于排爆无人装备上,能够在排爆任务中发挥更加精准和高效的作用。此装备不仅能够减轻操作人员的工作强度、降低危险,还能有效提升排爆作业的效率,对排爆无人装备的智能化发展和排爆工作更安全高效具有重要的实际意义。
[1] 孟庆奎,高维,舒晴.全球UXO现状及地球物理探测系统[C]//2017中国地球科学联合学术年会.2017:6-8.MENG Qingkui,GAO Wei,SHU Qing.The current situation of global UXO and geophysical detection system[C]//2017 China Geosciences Union Academic Annual Conference.2017:6-8.
[2] BILUKHA,OLEG O.Death and Injury from Landmines and Unexploded Ordnance in Afghanistan[J].Jama,2003,290(5):650-653.
[3] SURRENCY A B,GRAITCER P L,HENDERSON A K.Key factors for civilian injuries and deaths from exploding landmines and ordnance[J].Injury Prevention,2007,13(3):197-201.
[4] NOVIK G P,ABRAHAMSEN E B,SOMMER M.Improving the decision-making basis by strengthening the risk assessments of unexploded ordnance and explosive remnants of war[J].Safety Science,2023,160:106065.
[5] 李昂.便携式瞬变电磁系统未爆弹探测准确性研究[D].长春:吉林大学,2023.LI Ang.Research on the detection accuracy of unexploded ordnance using portable transient electromagnetic system[D].Changchun:Jilin University,2023.
[6] 徐建国,丁凯,李阳明.未爆弹药探测技术发展现状及思考[J].中国公共安全,2020(4):176-178.XU Jianguo,DING Kai,LI Yangming.The development status and reflection of unexploded ordnance detection technology[J].China Public Security,2020(4):176-178.
[7] 王利杰.瞬变电磁未爆弹快速探测关键问题研究[D].长春:吉林大学,2023.WANG Lijie.Research on key issues in rapid detection of unexploded ordnance using transient electromagnetic method[D].Changchun:Jilin University,2023.
[8] 刘超,于建坤,李锐,等.小微型无人机在排除未爆弹药中的应用研究[J].机械工程与自动化,2023(5):223-224.LIU Chao,YU Jiankun,LI Rui,et al.Research on the application of miniature unmanned aerial vehicles in the disposal of unexploded ordnance[J].Mechanical Engineering and Automation,2023(5):223-224.
[9] 徐胜利,邢书村.排爆机器人自动化系统研究[J].中国安防,2023(9):109-112.XU Shengli,XING Shucun.Research on the automation system of explosive ordnance disposal robots[J].China Security &Protection,2023(9):109-112.
[10] 胡聪,何晓晖,邵发明,等.基于Faster R-CNN的未爆弹检测[J].机电产品开发与创新,2021,34(5):105-107.HU Cong,HE Xiaohui,SHAO Faming,et al.Detection of unexploded ordnance based on faster R-CNN[J].Development and Innovation of Mechanical and Electrical Products,2021,34(5):105-107.
[11] 单成之,张健.基于关键点的未爆弹图像目标检测算法[J].现代计算机,2023,29(1):39-44.SHAN Chengzhi,ZHANG Jian.Unexploded ordnance image target detection algorithm based on key points[J].Modern Computer,2023,29(1):39-44.
[12] 陈益方,张上,冉秀康,等.基于改进YOLOv8的SAR图像飞机目标检测算法[J].电讯技术,2023(8):1-8.CHEN Yifang,ZHANG Shang,RAN Xiukang,et al.Aircraft target detection algorithm for SAR images based on improved YOLOv8[J].Telecommunication Engineering,2023(8):1-8.
[13] 孙阳,李佳.基于通道剪枝的YOLOv7-tiny输电线路异物检测算法[J].计算机工程与应用,2024(4):1-12.SUN Yang,LI Jia.Foreign object detection algorithm for transmission lines based on channel pruning and YOLOv7-tiny[J].Computer Engineering and Applications,2024(4):1-12.
[14] OUYANG D L,HE S,ZHANG G Z,et al.Efficient multi-scale attention module with cross-spatial learning[C]//ICASSP 2023—2023 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP).Rhodes Island,Greece,2023:1-5.
[15] 吴学礼,赵俊棋,刘雨涵,等.基于YOLOv5微光环境下的多模态识别网络[J].无线电工程,2023(9):1-13.WU Xueli,ZHAO Junqi,LIU Yuhan,et al.Multi-modal recognition network based on YOLOv5 in low-light environment[J].Radio Engineering,2023(9):1-13.
[16] 吴明杰,云利军,陈载清,等.改进YOLOv5s的无人机视角下小目标检测算法[J].计算机工程与应用,2024,60(2):191-199.WU Mingjie,YUN Lijun,CHEN Zaiqing,et al.A small object detection algorithm based on improved YOLOv5s for drone view[J].Computer Engineering and Applications,2024,60(2):191-199.
[17] 高昂,梁兴柱,夏晨星,等.一种改进YOLOv8的密集行人检测算法[J].图学学报,2023,44(5):890-898.GAO Ang,LIANG Xingzhu,XIA Chenxing,et al.A dense pedestrian detection algorithm based on improved YOLOv8[J].Journal of Graphics,2023,44(5):890-898.
[18] 邓亚平,李迎江.YOLO算法及其在自动驾驶场景中目标检测研究综述[J].计算机应用,2023(9):1-12.DENG Yaping,LI Yingjiang.Overview of YOLO algorithm and its application in object detection in autonomous driving scenarios[J].Journal of Computer Applications,2023(9):1-12.
[19] 魏陈浩,杨睿,刘振丙,等.具有双层路由注意力的YOLOv8道路场景目标检测方法[J].图学学报,2023,44(6):1104-1111.WEI Chenhao,YANG Rui,LIU Zhenbing,et al.Target detection method for road scenes in YOLOv8 with double-layer routing attention[J].Journal of Graphics,2023,44(6):1104-1111.
[20] 杨珍,吴珊丹,贾如.结合改进ShuffleNet-V2和注意力机制的无人机图像自主分类预警框架[J].无线电工程,2023(9):1-13.YANG Zhen,WU Shandan,JIA Ru.Autonomous classification and warning framework for drone images combining improved ShuffleNet-V2 and attention mechanism[J].Radio Engineering,2023(9):1-13.
[21] LIU Z,LI J,SHEN Z,et al.Learning efficient convolutional networks through network slimming[C]//2017 IEEE International Conference on Computer Vision (ICCV).Venice,Italy,2017:2755-2763.
[22] 王家驹,王竣平,白泰,等.基于设备特征多层优选和CNNNLSTM模型的非侵入式负荷分解[J].电力科学与技术学报,2023,38(1):146-153.WANG Jiaju,WANG Junping,BAI Tai,et al.Nonintrusive load disaggregation based on multiple optimization of appliance features and CNNNLSTM model[J].Journal of Electric Power Science and Technology,2023,38(1):146-153.
[23] 张玉,武海,林凡超,等.图像识别中的深度学习模型剪枝技术[J].南京理工大学学报,2023,47(5):699-707.ZHANG Yu,WU Hai,LIN Fanchao,et al.Deep learning model pruning techniques in image recognition[J].Journal of Nanjing University of Science and Technology,2023,47(5):699-707.