为满足舰炮对海射击脱靶量自动化测试需求,检靶系统需要针对海上弹丸水柱和靶球进行准确识别并定位。海上目标识别算法属于检靶系统的关键技术,其性能优劣直接决定着检靶系统的可靠性与实用性[1]。当前海上目标检测研究的主要对象是水面舰船,但与静止的舰船目标相比,弹丸水柱和靶球检测更加具有挑战性:水柱在形态和颜色上随时间不断变化,初始时和浪花极为相似,发展变化过程很快,从出现到消散只有3~5 s,在消散阶段,水柱由凝实转为浓雾状,对其他目标造成遮挡,并改变了周围环境亮度,导致检测环境更加复杂;靶球目标体积小,随波漂浮,在监控画面上呈现出时隐时现的特点,单靶球的外形表现为被部分遮挡的球形,多靶球的外形表现则更加复杂。本文设计一种海上目标识别算法,对海上水柱目标和靶球目标进行快速有效识别。
检靶系统使用高清光电摄像机作为图像输入设备,以无人艇为观测平台,实现目标方位信息在复杂环境下(包括浓雾、阴雨天、四级以下海况、逆光、齐射、远距离、目标重叠等极端情况)的高精度实时检测。系统必须保证能迅速准确地识别出相应目标,因此对目标识别技术的准确率和实时性都提出了很高要求。为满足使用要求,选用的识别算法网络模型需要同时具备强大的检测能力和轻量化的网络结构,具备多目标识别能力和较强的抗干扰能力,能够应对复杂多变的海上环境。
本文在研究对比了多种目标识别技术后(见表1),最终选定使用各方面性能表现较好且运行稳定的YOLOv4深度学习网络作为基础模型,在基础上进行改进,以适应检靶系统的识别要求。
表1 多种深度学习模型的海上目标识别效果
Table 1 Comparison of maritime target recognition effects for a variety of deep learning models
模型作者mAP50/%FPSImproved CFARKANG Miao[2]78.6-CMS-RCNNKANG Miao[3]75.21RBox-CNNJ.Koo[4]79.4-DCMSNNJIAO Jiao[5]89.6-CNN+RPN+Fast R-CNNYUAN Mingxin[6]83.820Improved Faster R-CNNLI Jianwei[7]78.86PSB(ResNet-101)ZHONG Yanfei[8]82.010CenterNet+GUO Haoyuan[9]73.930SDGH-NetWANG Zhenqing[10]85.1-DCN+YOLO黄凤琪[11]82.679YOLOv3ZHU Mingming[12]90.774YOLOv3+DAMCHEN Liqiong[13]85.128YOLOv3-Tiny+FPN李庆忠[14]92.412RDB-YOLOv4谢斌红[15]94.338
YOLO系列模型是典型的单阶段目标检测算法网络模型,能一次性快速识别多种目标,在识别效率上有较大优势,其识别效果如图1所示。
图1 YOLO算法识别效果图
Fig.1 YOLO algorithm recognition effect
2016年,Joseph Chet Redmon[16]等提出了YOLOv1目标识别模型,奠定了YOLO[17-18]系列模型的基本检测流程:输入图片并压缩至规定大小,将图像划分为S×S个方格,用不同尺寸的锚定框对每个格子进行检测得到每个格子预测出的Bounding Boxes及其置信度和一张表示每个格子分类可能性的图,经过非极大值抑制(NMS)操作得到输出结果。经过几年的发展和改进,2020年Alexey Bochkovskiy等[19]提出了YOLOv4模型,YOLOv4融合了近年来深度学习领域涌现的一些优秀检测技巧,在精度和速度上都得到很大提升。在网络结构方面,YOLOv4可分为输入(input)、骨干(backbone)、颈部(neck)、头部(head)4个部分,其中backbone部分采用了在检测速率、参数数量、模型层数等方面表现更加优异的CSPDarknet53网络;neck部分则采用了空间金字塔池化层(Spatial Pyramid Pooling,SPP)作为附加模块,采用路径聚合网络(Path Aggregation Network,PANet)作为路径聚合模块;head部分则沿用了YOLOv3的YOLO-head。以上组成了YOLOv4模型的整体框架。在检测技巧方面,YOLOv4将它们分为Bag of Freebies(BoF)和Bag of Specials(BoS)两类并应用到模型框架的各个部位,以优化检测性能,提高检测精度和速度。
图2为YOLOv4的网络结构图,如图2(a)所示,YOLOv4在输入端将图像尺寸调整为固定大小输入检测网络,图像数据进入CSPDarknet53骨干网络,CSPDarknet53网络是由阶段交叉梯度模型(cross stage partial,CSP)和Darknet53网络组合而成,将CBM(CNN-BN-Mish)卷积层和多个残差组件Resunit堆叠而成的CSP模块通过route层插入到卷积层中,一方面加深了网络模型的深度,使网络能获取更高层次的语义信息和更多的特征图;另一方面通过引入多个残差网络和route分流,使各层的计算量得到一定程度的平衡,提高了运算速度,同时也有效防止了网络深度增加导致的梯度爆炸或梯度消失问题。图像数据在骨干网中经过多次降维处理,分别在骨干网末端、倒数第一次降维和倒数第二次降维处引出三条数据通道通向网络的颈部,用于检测不同尺度的目标。三条通道的数据经过CBL(CNN-BN-Leaky)模块、SPP结构网络后按照PANet结构的方式进行卷积、上采样和route层融合,最后输入到头部。这种处理方式使浅层特征和高级语义特征得到融合,使多个尺度的感受区域得到融合,进一步强化了网络对不同层级特征的利用效率,能有效改善小目标丢失问题并提高检测精度。在网络头部,数据图像最终被处理成为19×19、38×38、76×76三种不同大小的栅格图,分别用于实现对大型目标、中型目标和小型目标的检测。
图2(b)中,CBM是使用了批量归一化(Batch Nomalization,BN)和Mish激活函数的卷积层,图2(c)CBL则是使用了批量归一化和Leaky激活函数的卷积层。Mish激活函数比Leaky激活函数更有助于保持小的负值从而稳定网络中的梯度流,使更多的权重能够得到更新,具有更好的泛化能力,有效提高了检测结果的质量。图2(d)表示Resunit模块的组成,“add”表示将相同尺寸大小的特征图数据进行相加。图2(e)为CSP模块的组成结构,CSP模块由多个Resunit模块和卷积模块的残差网络堆叠而成。图2(f)为SPP模块的组成结构,将骨干网输出的特征图分别进行尺度为5×5、9×9、13×13的最大池化,再将未池化数据和3种池化结果聚合,其中“concat”表示将不同尺寸的特征图数据进行拼接。
图2 YOLOv4网络结构图
Fig.2 YOLOv4 network structure
YOLOv4网络在使用时需要预设9个锚定框(Anchor Box)用于预先确定检测目标的长宽比,并在每个格子中都生成9个锚定框对框内物体进行检测,预测出目标的Bounding box。由于水柱目标不是静态的,它的尺寸、外形随着时间在不断变化,YOLOv4默认的Anchor Box并不适用这种单一类型的动态目标检测,因此本文使用K-means聚类算法对水柱数据集中的目标尺寸进行聚类,求出合适的Anchor Box值。
K-means聚类算法是一种无监督的聚类算法,本文将检靶数据集中标注好的目标边框的长、宽作为初始数据集输入聚类算法中,算法随机选择9个质心,然后分别求数据集中每个点到各个质心的距离,并将该点的类别标记为与它距离最近的质心的类别,再对当前各个类别的点求新的质心,基于新的质心对所有点重新分类,再求质心,多次重复前面2个操作直到质心不再改变,最终得到一组比较优的Anchor Box值。
HU等[20]提出SE模块,SE注意力机制如图3所示。这是一种轻量级的注意力机制模块,能够轻易地加入网络模型中且只增加少量的模型复杂度和计算开支。在检测任务中,随着数据流在网络中不断加深,目标特征表现逐渐微弱,容易造成小目标和弱目标的漏检。通过在网络中的适当位置嵌入SE注意力模块,可以增强网络对重要通道的学习能力,提高识别率。为了在小目标特征消失前对通道特征进行强化,本研究考虑将SE注意力模块嵌入YOLOv4骨干网络的中段,具体结构如图4所示。将SE模块添加到Resunit模块中,形成新的SE-Resunit模块,并替换原CSP模块中的Resunit,再在CSP模块的concat后添加SE模块,形成新的SE-CSP模块替换位于Backbone中的所有CSP模块。
图3 SE注意力机制框图
Fig.3 SE attention mechanism
图4 SE-YOLOv4算法具体结构示意图
Fig.4 Schematic diagram of SE-YOLOv4 algorithm modification
从无人艇平台的角度进行观测,可以发现水柱和靶球的位置几乎都处于海天线附近,找到海天线位置能够进一步提高检测率,降低误检率[21]。论文基于灰度共生矩阵原理设计了一套海天线快速检测程序,对输入图像进行高效计算,能在0.02 s内完成一幅1 920×1 080高清图像的海天线检测。
灰度共生矩阵是一种描述图像纹理特征的方法,在图像分析领域有着广泛应用。其原理是统计灰度图上任意一点与它0°、45°、90°、135°四个方向固定步长所对应的点所形成的灰度对(f1,f2)的数量。这4个方向的灰度统计就是灰度共生矩阵,通过它可以较好地展示出图像的纹理特征,从而找到海天线位置。因为需要对原图进行多次遍历操作,当图像尺寸较大且灰度值较大时将产生巨大的计算量。受景宏磊等[22]启发,论文中在计算灰度矩阵前将W×H高清图像平均划分为16×16个矩形区域,每个区域的大小为x×y,分别求每个区域内的灰度和,再将灰度和按比例降低至16以内并取整,形成灰度压缩后的新灰度图S:
(1)
式中,g(x′,y′)为点(x′,y′)处的灰度值;S(i, j)为(i, j)区域向下取整后的灰度和。
新灰度图的尺寸为16×16,灰度级也为16。图像在质量上有所损失,但海天线检测对清晰度要求不高,因此不影响检测效果。对压缩后的灰度图求灰度共生矩阵PS:
(2)
式中,θ=0°、45°、90°、135°;d为i点和j点之间的距离;#(x)表示集合x中的元素个数。
对4个方向的灰度共生矩阵分别进行归一化处理:
P(i, j)=PS(i, j,d,θ)/R
(3)
再利用灰度共生矩阵P(i, j)计算对比度Con:
(4)
取竖直方向对比度变化最大的位置作为海天线位置,并截取其上50像素,下25像素的范围作为算法的检测区域。考虑到海天线检测对于蓝色比较敏感,因此以图像的蓝色通道作为输入。检测效果如图5所示。
由图5中可以看出,GLCM算法能清晰呈现出海天线的纹理,且该算法对于倾斜度达到45°的海天线和浓雾背景下的海天线都具有良好的检测能力。
图5 基于灰度共生矩阵的海天线检测效果图
Fig.5 Detection effect of horizon based on gray level co-occurrence matrix
当YOLOv4算法在视频流中对目标进行检测时,算法将对每一帧的图像数据都进行检测。对于不同的图像来说,每次检测到的目标位置都存在一些偏差,也会有误检和漏检,从而导致对视频流进行检测时检测框不断闪烁变换。短时间内,目标的形状、位置在前后帧图片中相差不大,若逐帧检测不仅浪费算力,还会影响对检测效果的判断。本文采用图像相似性快速检测的方式,剔除视频流中相似性程度较高的图像,改善视频流检测效果。
结构相似性检测,是一种从图像组成的角度来评价两幅图像相似程度的算法。它将图像失真度定义为图像亮度、对比度和结构3个独立因素的组合。
(5)
(6)
(7)
式中,uA、uB是图像A、B的均值;l(A,B)为亮度的估计;分别是图像A、B的方差;c(A,B)为对比度的估计;σAB是图像A和B的协方差;s(A,B)为结构相似度的估计;C1=(k1L)2,C2=(k2L)2,C3=C2/2为常数,作用是避免分母为零;k1=0.01,k2=0.03,L=255。
本文先利用滑动窗口将图像分为N块,再计算每个对应分块的SSIM值,最后求所有SSIM的均值MSSIM:
(8)
(9)
MSSIM值越大,两张图像越相似。以上一帧输入网络中的图像为参考帧,计算当前图像与参考帧之间的MSSIM值,当该值超过设定的阈值时,当前图像不进入检测网络,并和上一帧检测结果共同输出;当该值小于阈值时,则将当前图像输入检测网络中,并将该图像更新为新的参考帧。
为 验证改进后YOLOv4网络的有效性,本文在检靶数据集上开展实验。本次实验平台环境如下:
操作系统:Windows 10
深度学习框架:Tensorflow2.3.0-GPU
CPU:AMD Ryzen 7 4800H with Radeon Graphics
内存:32 GB
显卡:NVIDIA GeForce RTX 2060
显存:6 GB
在对比实验中,需要分别训练原始YOLOv4网络与改进后的YOLOv4网络。在训练原始YOLOv4网络时,若随机生成初始权重对网络进行训练,不仅花费的训练时间较长,而且训练效果和训练进程不易把握。考虑到COCO数据集包含内容较为广泛,其网络权重具有更好的泛用性,因此本文采用迁移学习的办法,将已训练完成的COCO网络权重作为对照网络的初始权重进行训练,可在得到良好效果的同时大大缩短训练时间。
本文采用准确率P(Precision)、召回率R(Recall)、各类别AP平均值mAP(mean Average Precision)、帧率FPS(Frame Per Second)4个指标对网络性能进行判断。以交并比IoU为判定依据,当IoU≥0.5时认为该目标被正确识别。
参数设置:输入图片尺寸为512×512,锚定框数量为9(Anchor Box=5,8;10,36;11,16;14,55;17,76;19,53;27,24;28,71;45,140),锚定框放大比例XYSCALE设置为[1.2,1.2,1.05],学习率设置为0.001,BATCHSIZE设置为2。
实验首先对YOLOv4_0、YOLOv4_1、YOLOv4_3、YOLOv4_4模型进行迁移学习,训练Epochs设置为180。对于引入了SE注意力机制的YOLOv4_2、YOLOv4_5、YOLOv4_6、YOLOv4_7模型由于算法结构发生改变,不能使用迁移学习,需从头开始训练,因此需要提高训练循环次数,将Epochs设置为 1 000。使用测试集图片和检靶视频对训练好的模型进行检验,具体结果如表2所示。
表2 不同模型在数据集上的效能评估
Table 2 Effectiveness evaluation of different models on data sets
模型K-means聚类SE注意力机制GLCM海天线检测SSIM相似性检测PRmAP50FPSYOLOv4_076.2%56.2%53.5%42YOLOv4_188.3%66.0%66.3%42YOLOv4_288.7%78.7%75.6%38YOLOv4_390.0%67.7%67.0%26YOLOv4_488.3%62.0%60.4%52YOLOv4_590.3%80.0%79.4%28YOLOv4_694.5%83.0%83.8%21YOLOv4_794.0%84.0%83.4%36
通过对比实验结果可以发现,K-means聚类对网络运行速度没有影响,却能够有效提升检测精度,使mAP50值提升了12.8%;SE注意力机制因为嵌入在骨干网络中增加了计算量,使FPS值略有下降,但该算法对提升检测精度有重要作用,强化了网络对小目标的检测能力,提高网络对云层和水柱的分辨能力,也提升了召回率R,mAP50值比初始网络提升了22.1%;由于修改后的GLCM快速算法依然有较大计算量,引入海天线检测算法使FPS值受到了较大影响,但该算法对网络检测精度的提升作用较明显,原因是该算法将检测区域集中到海天线附近,有效避免了舰船尾流对水柱检测的干扰;SSIM相似性检测对算法的检测精度和查准率提升贡献不大,反而有一些负面影响,但它能减少计算量并提高视频流的检测效果。从上述数据可以看出,所提出的几种算法对YOLOv4网络的检测性能都有较好的提升作用,将它们同时应用到YOLOv4网络中检测效果能相互叠加,最终修改后的网络mAP50值达到了83.4%,FPS为36帧/s。修改后的网络在检测水柱目标和靶球目标方面比初始YOLOv4网络检测精度提高了29.9%。
为实现对海上水柱目标和靶球目标的准确识别,根据目标特征制定针对性的改进方案,最终使目标识别网络的检测能力提高了29.9%,mAP50值达到了83.4%。
但是本次实验受到数据集规模限制,无法对海况、光照、气候等影响检测效果的变量进行充分地对照实验,难以考察检测算法的鲁棒性。下一步要继续扩大数据集规模,并考虑将数据集按场景分类,训练多个模型以更好地适应不同场景下的检测需求。此外由于本算法对检测实时性要求较高,在一定程度上牺牲了算法的检测精度,后续研究将考虑设计检测精度更高的目标识别算法用于离线检靶。
[1] 刘志坤,曲毅,张建强等.基于UWB定位的舰炮检靶系统设计研究[J].舰船电子工程,2020,40(12):130-133,168.
LIU Z K,QU Y,ZHANG J Q,et al.Study on design of naval gun target-scoring system based on UWB location[J].Ship Electronic Engineering,2020,40(12):130-133,168.
[2] KANG M,LENG X G,LIN Z,et al.A modified faster R-CNN based on CFAR algorithm for SAR ship detection[C]//The 2017 International Workshop on Remote Sensing with Intelligent Processing.Shanghai,China,2017:1-4.
[3] KANG M,LENG X G,LIN Z,et al.Contextual region-based convolutional neural network with multilayer fusion for SAR ship detection[J].Remote Sensing,2017,9(8):860.
[4] Koo J,Seo J,Jeon S,et al.RBox-CNN:Rotated bounding box based CNN for ship detection in remote sensing image[C]//Proceedings of the 26th ACM SIGSPATIAL international conference on advances in geographic information systems; 2018 Nov; Seattle,Washington,USA,ACM,New York,2018.
[5] JIAO J,ZHANG Y,SUN H,et al.A densely connected end-to-end neural network for multiscale and multiscene SAR ship detection[J].IEEE Access,2018(06):20881-20896.
[6] YUAN M X,ZHANG L M,ZHU Y S,et al.Ship target detection based on deep learning method.Ship Science and Technology,2019,41(01):111-115,124.
[7] LI J W,QU C W,SHAO J Q.Ship detection in SAR images based on an improved faster R-CNN[C]//The 2017 SAR in Big Data Era:Models,Methods and Applications,Beijing,China,2017:1-6.
[8] ZHONG Y F,HAN X B,ZHANG L P.Multi-class geospatial object detection based on a position-sensitive balancing framework for high spatial resolution remote sensing imagery[J].ISPRS Journal of Photogrammetry and Remote Sensing,2018,138:281-294.
[9] GUO H Y,YANG X,WANG N N,et al.A CenterNet++ model for ship detection in SAR images[J].Pattern Recognition,2021,112.
[10] WANG Z Q,ZHOU Y,WANG F T,et al.SDGH-Net:Ship detection in optical remote sensing images based on gaussian heatmap regression[J].Remote Sensing,2021,13(03):499.
[11] 黄凤琪,陈明,冯国富.基于可变形卷积改进的YOLO目标检测算法[J].计算机工程,2020(11):1-11.
HUANG F Q,CHEN M,FENG G F.Improved YOLO object detection algorithm based on deformable convolution[J].Computer Engineering,2020(11):1-11.
[12] ZHU M M,HU G P,ZHOU H,et al.Rapid ship detection in SAR images based on YOLOv3[C]//Sichuan University.Proceedings of the 5th International Conference on Communication,Image and Signal Processing (CCISP 2020).Sichuan University,2020:5.
[13] CHEN L Q,SHI W X,DENG D X.Improved YOLOv3 based on attention mechanism for fast and accurate ship detection in optical remote sensing images[J].Remote Sensing,2021,13(4).
[14] 李庆忠,徐相玉.基于改进YOLOv3-Tiny的海面船舰目标快速检测[J].计算机工程,2020:1-9.
LI Q Z,XU X Y.Fast detection of surface ship targets based on improved YOLOv3-Tiny[J].Computer Engineering,2020:1-9.
[15] 谢斌红,袁帅,龚大立.基于RDB-YOLOv4的煤矿井下有遮挡行人检测[J].计算机工程与应用,2021:1-10.
XIE B H,YUAN S,GONG D L.Detection of blocked pedestrians based on RDB-YOLOv4 in the mine[J].Computer Engineering and Applications,2021:1-10.
[16] Redmon J,Divvala S,Girshick R,et al.You only look once:unified,real-time object detection[C]//IEEE Conference on Computer Vision & Pattern Recognition.[S.l.]:[s.n.],2016.
[17] Redmon J,Farhadi A.YOLO9000:Better,faster,stronger[C]//IEEE Conference on Computer Vision & Pattern Recognition.[S.l.]:[s.n.],2017:6517-6525.
[18] Redmon J,Farhadi A.YOLOv3:An incremental improvement[C]//IEEE Conference on Computer Vision & Pattern Recognition.[S.l.]:[s.n.],2018:2767-2773.
[19] Bochkovskiy A,Wang C Y,Liao HYM.YOLOv4:optimal speed and accuracy of object detection[J].ArXiv Preprint ArXiv,2004.10934,2020.
[20] HU J,SHEN L,SUN G.Squeeze-and-Excitation networks[C]//IEEE Conference on Computer Vision & Pattern Recognition.[S.l.]:[s.n.],2018:7132-7141.
[21] LIANG D,LIANG Y.Horizon detection from electro-optical sensors under maritime environment[J].IEEE Transactions on Instrumentation & Measurement,2019:1-9.
[22] 景宏磊,聂菁.基于灰度共生矩阵的高效积分图像计算(英文)[J].吉林师范大学学报(自然科学版),2014,35(04):136-138.
JING H L,NIE J.Efficient integral image calculation based on gray level co-occurrence matrix[J].Journal of Jilin Normal University (Natural Science Edition),2014,35(04):136-138.
Citation format:ZHANG Kun, LUO Yasong, LIU Zhong.Research on marine target recognition technology based on YOLOv4[J].Journal of Ordnance Equipment Engineering,2022,43(04):211-217.