航母作为舰载机出动回收及保障的重要平台,舰面目标的管理和安全问题一直受到高度的关注。根据美国海军舰艇事故数据的分析结果,舰面因其复杂环境成为事故的高发区,造成大量人员伤亡和设备损坏,事故达到占比的55%[1]。因此,如何通过可靠的技术手段来对甲板调度和转运过程中的舰面目标进行监测和定位,成为亟须解决的难题。同时,舰面目标的定位也是舰面位置感知的重要数据来源[2],将为整个调运流程和路径规划提供信息支撑,是舰面感知技术重要发展方向之一。
目标定位方法的研究是各行业的热点问题。当前主要的定位方法有激光雷达、毫米波雷达等雷达类,单目视觉、双目视觉、多目视觉等视觉类,以及GPS等传感器类。但受限于舰面装备构型限制和电磁环境的要求,部分成熟的定位技术无法使用。机器视觉的不断成熟,使视觉类方案成为最优的选择之一。相比于多目视觉,单目视觉使用的位置固定摄像头更加简单可靠,利用单目视觉定位可以为定位提供足够的硬件支撑,已经广泛应用在各领域。在关键点定位方法上,国内外已经开展了相关的研究及试验。Johnton等[3-4]提出了舰面可持续监控系统,利用舰载机机翼两侧的GPS进行差分定位和记录运动轨迹,对舰载机实现持续性的监控。Davis B J等[5]提出了基于机器视觉的舰载机定位方法,通过采集图像的边缘与模板进行匹配,从而来评估舰载机所处的位置。随着计算机神经网络的快速发展,深度学习技术在这一领域的应用日趋广泛,基于深度学习的机器视觉应用效果得到了各方验证。田少兵等[6]实现了舰载机的目标检测及跟踪,并对人体骨骼关键点检测在舰载机上的应用也开展了相关研究。但目前的关键点检测方法所适用的舰面目标较为单一,尤其是对于出现自我遮挡的关键点无法实现检测及定位。
本文针对上述定位方法的局限性,融合目标检测、关键点检测以及目标模型,提出了一种局部遮挡情况下基于目标匹配的舰面目标关键点定位方法,利用目标检测方法识别模型后通过坐标解算来实现遮挡点的定位,对轮廓点的定位可以对后续目标之间的碰撞检测提供支撑。
在机器视觉领域,目标检测的准确率和速率随着神经网络和硬件设备的发展都有了巨大的提升,但其能力因为杂波、遮挡、光照等因素却始终与人类有着不小的差距,遮挡便是其中一个难点问题。目标检测中的遮挡问题按照遮挡方式可以大致分为两类,一类是由于非目标造成的遮挡,另一类是检测目标造成的遮挡[7]。神经网络在对存在遮挡的目标进行检测时准确率会有所下降,且遮挡物体的检测目前仍没有与之对应的数据集,但可以在目标检测时通过数据增强、非极大抑制等方法强化神经网络对目标局部特征的识别与筛查能力以实现对被遮挡物体的检测。
由于目标的不规则轮廓边界以及甲板狭窄的活动空间限制,仅仅依靠目标检测的方框来描述目标轮廓信息无法达到实际要求的精度,在安全距离时容易出现误报警,所以需要更加精确的目标轮廓点坐标来判断两者的安全状态,如图1所示。相比于目标检测中的遮挡,关键点检测中的遮挡问题表现的更为突出。对于被遮挡的关键点,其特征将无法在图片像素中表现,从而导致无法进行标注训练以及检测定位。关键点遮挡方式同样可以分为两类,一类是其他物体引起的遮挡,另一类是自身空间结构造成的自遮挡或隐蔽点。在人脸检测中关键点中典型的遮挡被当作随机非结构的噪声源,其问题是对遮挡点如何进行检测以及对大角度人脸点位置预测的准确性和稳定性。Ghiasi,G[8]通过用大量合成遮挡物来拓展正训练样本,从而训练得到一个虚拟的正样本模型。这种方式可以解决一定角度情况下的遮挡问题,但无法解决自身遮挡以及超大角度的遮挡等问题。
图1 检测框与关键点定位效果示意图
Fig.1 Compare the positioning effect of detection frames and key points
从人类识别物体的方法来类比,主要区别在于人类对于目标先有认知,在大脑记忆中提前存储了目标物体的模型,便可以通过模型来进行画面补偿。通过对舰面目标进行分析,目前需要进行关键点检测的目标空间几何关系相对固定,即它们的一个特征点可以用他们自身的空间几何关系来表示。当轮廓点存在遮挡严重的情况下,设置一套检测点与一套轮廓关键点,利用检测点的结果进行坐标解算来实现轮廓关键点以及遮挡点的定位。
本研究中采用自上而下的关键点检测方法,通过多目标检测方法获取到目标的类型,然后根据目标类型将匹配的目标图像送入关键点检测网络并进行单应转换,将关键点检测的结果通过坐标解算以实现遮挡关键点的定位或修正,具体流程如图2所示。
图2 轮廓关键点定位流程示意图
Fig.2 Contour key points localization process
目标匹配是进行关键点检测的先要条件,因此需要对检测的目标进行分类并获取其像素范围。计算机视觉的中心问题是如何从图像中解析出计算机需要的信息,主要可以分为图像分类、目标检测以及图像语义分割三大任务。因此在目标匹配阶段需要进行目标检测和图像分类操作,来获取目标的类型以及位置信息。图像分类是解决图片中存在目标归属类别的问题,而目标检测还需要解决目标在图像中的位置问题。传统的检测方法是通过对目标手工设计特征,然后通过模板窗口滑动来完成目标特征的匹配,并利用分类器进行目标类别的确定。但随着近年神经网络的深入发展,基于深度学习的检测高速有效,已经成为目标检测新的发展方向。基于深度学习的目标检测主要可以分为两大类[9],一种是基于候选框的两步检测网络,例如R-CNN系列算法,其具有较高的精准度,但检测速度较低。另一类是基于回归的端对端的目标检测网络,例如YOLO系列和SSD系列,其精确度不如R-CNN系列,但是在检测速度上提升显著。本文中目标匹配可以进行目标图像的扩大框选,对实时性的要求高于准确率。在检测效果满足需求的情况下,为保证目标检测算法与关键点检测算法深度学习框架环境的一致性,采用相对可靠的YOLOv3算法对多类目标进行检测。
YOLOv3网络[10]的检测流程如图3所示,将输入图像缩放或填充为大小为416×416的图像,以防止目标产生变形。然后将其划分为13×13、26×26及52×52三种不同尺度大小的网格,利用不同规格的网格以实现对不同尺度目标的检测。
每个网格负责预测中心落入网格中心的目标,每个网格预测出B个预测框,每个预测框产生Class个物体类别数以及预测框的中心点坐标,长高、置信度,可以表示为表示划分单元格的尺度,B表示先验框数量,Class为分类结果,x、y为预测框中心坐标,w、h为预测框的宽和高,表示第i个单元格的第j个预测框的置信度
(1)
其中:Pr(Object)表示目标存在的概率;表示真实框与预测框的IoU值,即先验框与真实框的交集和并集的比,如图4所示。
图3 YOLOv3目标检测流程示意图
Fig.3 Target detection process of YOLOv3
图4 IoU计算示意图
Fig.4 Schematic diagram of IoU calculation
在输出结果时,利用非极大抑制算法对预测结果进行筛选,对每一个预测中心仅保留置信最高的唯一候选框作为最终的目标检测框,并在图像上绘制出目标的预测框。
在舰面目标较多的情况下,目标检测的遮挡问题依然凸显,主要体现在检测目标之间的相互遮挡。YOLOv3算法在检测框在输出时用的是传统的非极大抑制(Non-maximum Suppression,NMS)方法,在检测框抑制上存在一定的限制。因为检测框的置信度分布连续,固定的阈值难以将负样本与遮挡目标区分开,当存在被遮挡物体时,算法会识别其为重叠框并将其置信度归零,导致其无法检测出[11],如式(2)所示。针对舰面的特点,采用Soft-NMS算法[12],在该算法中,将单位阶跃函数替换为连续的高斯函数
(2)
(3)
其中:Si表示当前检测框的得分;IoU(M,bi)为IoU的阈值;M为得分最高的检测框;bi表示当前检测框;Nt为人工设定的阈值。
Soft-NMS方法会随着IoU值的增大而加大对得分惩罚力度,在多轮的映射中重叠框因为IoU值较大而被不断惩罚,而与遮挡物的得分不断拉开,使正负样本的分布区间分开,因而利用一个合适的阈值就可以进行筛选出遮挡物。在对阈值设定时,通过统计正样本和负样本的置信度的正态分布情况,计算其在(-3σ,3σ)区间的分布,在正负样本3σ区间外选定阈值Nt=0.5,从而保证阈值的有效性,如图5所示。
图5 正样本与负样本的分布曲线
Fig.5 Distribution of positive and negative samples
关键点检测方法早期用于描述人体姿态,可以实现人体动作分类、异常行为检测等。近年随着深度学习的发展检测效果不断提升,已经开始广泛应用于机器视觉的相关领域。基于深度学习的关键点检测方法有两条路线,自上而下(Top-Down)的检测方法和自下而上(Bottom-Up)的检测方法[13]。自上而下的方法首先通过目标检测算法实现目标的分类和图像框选,然后在检测的基础上进行单个人体关键点的检测。自下而上的方法是对图像中所有的关键点进行检测,然后通过一定的策略将所有的关键点都聚类成不同的个体进行识别,在检测效果上略逊于自上而下的方法。
本文中采用Bin Xiao等[14]的SimplePose Baselines方法搭建关键点检测网络,SimplePose Baselines采用一种single-stage网络结构,取消了Hourglass[15]网络和CPN[16]网络中的金字塔结构,直接由Resnet和3个反卷积模块组成,在网络结构简单的同时具有更好的效果,如图6所示。首先通过Resnet50特征提取网络图像特征信息,并通过3个反卷积模块提升输出Feature Map的尺寸,配合一个1×1卷积输出7张热力图,其中反卷积模块实际上是将反卷积层(Transpose Convolution)、批归一化(Batch Normalization)以及ReLU激活函数封装成一个结构。每一张Heatmap对应一个关键点,热力图[17]的表示每个像素存在的关键点的概率大小,其中概率最大的点便是关键点所在坐标,两型舰载飞机关键点的热力图如图7所示。
图6 关键点检测神经网络图
Fig.6 Neural network diagram of key point detection
图7 舰载飞机热力图
Fig.7 Carrier based aircraft heatmap
在关键点的检测上,舰载机遮挡较少,因此可以直接使用轮廓关键点进行检测与定位。但对于自遮挡严重的舰载直升机,将关键点分为两类,一类是在同一平面的蓝色检测点,一类是直升机轮廓的红色关键点,某一角度下的非遮挡点与遮挡点如图8所示。在侧面视角下自身的关键点由于自遮挡而导致无法检测,因此利用直升机上层同一平面且视野较好的蓝色关键点进行检测,后通过直升机的空间结构对轮廓上的红色关键点进行坐标解算以实现定位,同时可以对舰载机轮廓检测中出现的异常关键点进行补偿,以便于提高定算法的定位性能。
图8 检测点与轮廓关键点示意图
Fig.8 detection points and outline key points
为了利用舰载飞机的空间几何特征,首先需要将图像中的像素点与世界坐标系中的坐标点联系起来。由于相机、舰面以及飞机关键点的高度关系相对固定,通过单目视觉测量技术将目标的像素坐标还原成世界坐标系下的真实坐标,以通过舰载飞机的真实模型来进行坐标解算,得到舰面目标平面与相机平面的映射关系。摄像机成像模型(见图9)由像素坐标系(u,v)图像坐标系(r,c)相机坐标系(Xc,Yc,Zc)和世界坐标系(Xw,Yw,Zw)四个坐标系组成[18]。
图9 摄像机成像模型示意图
Fig.9 Imaging model of camera
数字化图像信号都是以像素点的形式表示,像素坐标系表示目标像素点与图像左上角像素点的相对位置;不同的相机由于分辨率不同,同一物理尺寸对应像素往往不同,图像坐标系的坐标表示的是像素点在图像中的物理尺寸位置;摄像机坐标系通常以摄像机的光心与成像平面所组成的,而摄像机坐标系通过平移和旋转向量(R+T)便可以得到世界坐标系。联立4个坐标系的转换关系,得到像素坐标系下到世界坐标系的转换关系
(4)
其中:(u,v)为像素坐标系下的坐标;A为摄像机模型的内参矩阵;[R t]为摄像机外参模型矩阵;(xw,yw,zw)为世界坐标系下的坐标。
摄像机的内参包括摄像机本身的焦距、畸变等参数,而外参反映了世界坐标原点与相机的位置关系。通过张正友标定方法获取相机的内外参数,计算获得一个3×4的投影矩阵,即得到了像素坐标系和世界坐标系的单应性矩阵。根据上文关键点的设定,舰载机与直升机的检测点都大致位于同一个平面,因而可以令zw=0,所以像素坐标点与世界坐标点的映射关系可以变为
(5)
通过相机标定获得单应阵,得到了舰载飞机关键点所在平面与图像平面的映射关系,从而获得图像中关键点在现实模型中的平面位置关系。
通过多目标检测方法可以获得检测目标的类型,而通过单应阵可以在获得目标世界坐标系下的坐标。在存在遮挡的情况下,可以结合目标模型的空间几何关系来实现遮挡点的定位。通过几何约束关系进行关键点定位,相比于直接从2D图像中提取目标的特征,不仅精度更高,而且对于光照变化具有更好的鲁棒性[19-20]。在利用检测出的关键点解算轮廓关键点时,难点问题便是如何选定用于解算的关键点。如果仅仅依靠检测出的某一个关键点进行解算整个轮廓的精确度将依赖于该点的准确度,会导致局部误差扩散至全局误差。
针对解算点的选择与误差问题设计了一套坐标解算方法,流程如图10所示。算法主要步骤通过设计的损失函数依次选择飞机最优的检测点以及轮廓关键点最优的横纵坐标,实现过程的伪代码如下:
图10 坐标解算流程框图
Fig.10 Coordinate conversion flow-process diagram
在第一步从关键点网络输出中获取目标的类型、坐标以及置信度等信息,将置信度较低的点筛除,因其像素坐标本身可能存随机在误差,无法作为可靠点使用。在置信度的阈值设定上,通过多次实验进行测试,发现阈值在0.83时能够对低置信度点进行剔除且保证有足够的高置信度点参与后续解算。
在第二步中依次用各个关键点通过目标上关键点的几何关系去解算其余点的坐标,并将解算点与检测点的距离记为误差,设置一个损失函数来计算各点解算后的总误差,如公式(6)所示。同时,对于舰载机和直升机,分别采用两套关键点计算航向角,利用2种角度解算关键点所产生的损失误差总和来评价航向角的优劣,并将误差较小者记为航向角。
(6)
其中:i为用来进行解算的点;j为解算出的点;Sx表示网络检测出的横坐标;Sy表示网络检测出的纵坐标。
通过损失函数可以计算得到各个点进行解算时的总误差,然后对误差偏离较大的点进行剔除。本文中采用格拉布斯(Grubbs)准则来剔除异常值,格拉布斯准则在剔除数据时会剔除数据集中偏离较远的数据,可以减少异常点对总体轮廓点的影响。在对误差进行剔除时,取消了计算偏差值时绝对值操作,使其能够实现异常数据的最大值剔除,并通过设定显著水平α来实现剔除阈值的控制。在n个数据中,将第i个数据的残差v与标准差s的比值记为偏离度,当偏离度大于临界值时,将该点数据剔除,重复该过程直至所有数据偏差都符合要求
(7)
其中:ni作为数据列表;G(α,n)为格拉布斯准则的临界表值;α为显著水平;n为数据量。
在第三步,关键点检测的结果通过筛除低置信度点和异常点后,再次利用目标的几何关系,每一个可靠点解算一组横坐标和一组纵坐标,同样采取格拉布斯准则的双边剔除分别除去横坐标和纵坐标中的异常值,并将横纵坐标按照其置信度进行加权求和得到轮廓关键点或者筛除点的坐标。通过坐标解算方法,不仅可以通过检测点来对轮廓关键点进行定位,还可以对置信度低的点以及误差较大的异常检测点进行筛除后通过模型解算进行补偿,以实现对轮廓关键点较高精度的定位。
本试验环境根据等比目标模型进行搭建,尽可能还原真实场景。试验采集了2 000张不同角度和状态下舰面目标的图像,训练集、验证集以及测试集的比例为6∶2∶2。通LabelImg对目标检测的图像进行标注生成PASCAL VOC格式的数据集,用于目标检测网络的训练。然后通过自己编写的关键点标注工具对各目标关键点进行标注得到 COCO格式的数据集,用于关键点检测网络模型的训练。网络训练的环境及配置信息如表1所示。
表1 试验环境配置信息
Table 1 Test environment
参数配置信息CPUIntel Xeon Silver 4110内存32GGPUNVIDIA 2080Ti显存16G系统Ubuntu16.04深度学习框架TensorFlow1.14加速环境CUDA9.0,CUDNN7.0数据集格式VOC,COCO
目标检测算法的平均准确率均值(mean Average Precision, mAP)是一种目标检测任务的评价方法,通常将准确率和召回率所形成的PR(Precision-Recall)所围成的最大面积作为最优解,而围成的面积便用AP来衡量,而所有类的AP的均值就是mAP
AP=P(R)dR
(8)
对于关键点算法的评价,通常采用关键点相似度(object keypoint similarity,OKS)作为分段标准,计算OKS取0.5,0.55,…,0.9,0.95时检测准确率的均值
(9)
其中:p表示检测类别;i表示关键点的序号;dpi表示第P架舰载飞机预测的第i个关键点与标注点之间的欧氏距离;表示第p架舰载飞机目标边界框所占的像素面积;σi表示第i个关键点归一化因子;Vpi为关键点的标志位。
其平均准确率(Average Precision,AP)定义在阈值s下舰载飞机关键点在整个测试集上的平均准确率
(10)
最后用不同阈值下的平均准确率均值(mean Average Precision,mAP)来描述算法的性能
mAP=mean{AP@(0.50∶0.05∶0.95)}
(11)
帧率(Frames Per Second,FPS)是每秒钟定位图片的数量,用来表示算法的实时性。
经过训练和测试,算法性能如表2所示,多目标检测效果和关键点检测示意图分别如图11和图12所示。
表2 算法性能
Table 2 Algorithm performance
算法mAP%FPSYOLOv3算法95.625关键点检测算法91.510
图11 多目标检测效果图
Fig.11 Multi-target detection effect
图12 关键点检测示意图
Fig.12 Schematic diagram of key point detection
为了验证本文中方法的定位性能,在实验室环境下利用等比模型开展了相关试验。
试验设备包括单目相机、支架、标定板(50cm×50cm)、直尺以及两型舰载飞机模型,如图所示13所示,试验步骤如下:
图13 定位精度试验示意图
Fig.13 Positioning accuracy test
步骤1:将标定板平放于地面并固定,调整相机角度及镜头,使整个标定板位于相机视野内。
步骤2:依次将两型舰载飞机放于标定板表面,在标定板上对飞机轮廓关键点的真实位置进行测量记录。
步骤3:取消标定板固定后采集15~20张不同角度的标定板图像,并将第一张用于计算外参,利用张正友标定法计算内外参,得到像素坐标与标定板坐标的单应阵。
步骤4:用飞机平面一点的真实值和像素值对单应阵进行校正,得到飞机所在平面的单应阵。
步骤5:对飞机轮廓关键点的真实坐标和解算坐标进行对比和误差计算,分析定位性能。在试验中,对关键点检测结果加入随机噪声以模拟环境干扰,以检验算法的鲁棒性。
按照试验步骤完成方法定位精度分析试验,以及直升机为例进行了多次定位精度分析试验。表3 为定位精度试验坐标解算结果。直升机模型真实六点轮廓坐标依次为(50,250)(169,218)(212,219)(348,255)(213,282)(168,281)。
表3 定位精度试验坐标解算结果
Table 3 Coordinate calculation results of positioning accuracy test
解算点解算坐标/mm横坐标平均误差/mm横坐标方差/mm2纵坐标平均误差/mm横坐标方差/mm2点1(50,262.5)(167.72,227)(212.34,227)(345.5,262.5)(212.34,298)(167.72,298)0.84点2(18.00,245.97)(135.72,210.47)(180.34,210.47)(313.50,245.97)(180.34,281.47)(135.72,281.47)32.73点3(43.00,242.75)(160.72,207.25)(205.34,207.25)(338.50,242.75)(205.34,278.25)(160.72,278.25)7.73点4(66.65,247.46)(184.37,211.96)(228.99,211.96)(362.15,247.46)(228.99,282.96)(184.37,282.96)15.92点5(50.07,254.38)(167.79,218.88)(212.41,218.88)(345.57,254.38)(212.41,289.88)(167.79,289.88)0.81点6(30.00,262.13)(147.72,226.63)(192.34,226.63)(325.50,262.13)(192.34,297.63)(147.72,297.63)20.30点7(65.95,264.58)(183.67,229.08)(228.29,229.08)(361.45,264.58)(228.29,300.08)(183.67,300.08)15.2212.1611.665.028.074.343.7911.2913.7413.80本文中算法(47.95,255.18)(165.67,219.68)(210.29,219.68)(343.45,255.18)(210.29,290.68)(165.67,290.68)2.77—4.34—
在试验中,分别利用直升机7个检测点进行单点解算和本文中的算法进行坐标解算进行对比,共获得8组6个轮廓关键点的坐标,并计算各组坐标与真实横纵坐标差值的均值以及利用单点解算的误差波动,取一次试验结果如表3所示。试验结果表明,在各单点进行解算的效果会随着点位自身的准确度产生波动,导致全部轮廓点的坐标出现较大的波动。而通过本文中算法进行解算,融合了7个检测点的几何特征,分别对置信度低的点进行了筛选,对误差较大的点进行了屏蔽,防止对整体的轮廓点精度产生影响,并对横纵坐标进行了加权平均,在两个方向上的误差都较小且具对极端的异常结果具有抵抗性,结果如图14所示。
图14 轮廓关键点定位精度图
Fig.14 Comparison of positioning accuracy of key points
同时,通过试验方法和数据分析,定位误差的来源主要有以下:一是飞机模型和真实轮廓关键点的测量误差,二是飞机轮廓关键点不在同一个平面产生的微小平移误差,三是坐标转换模型中单应阵映射误差,四是坐标解算过程中精度丢失产生的误差。
提出了局部遮挡情况下基于目标匹配的舰面目标轮廓关键点定位方法,通过改进YOLOv3算法提高了对遮挡物的检测能力,同时基于摄像机模型及目标类型建立了坐标转换与舰载飞机几何关系模型,实现了干扰情况下对遮挡关键点的检测以及遮挡轮廓关键点的定位,并且对舰载飞机低置信度与异常的检测点筛除和补偿能力。试验结果表明,该方法在目标框检测和关键点检测准确率分别为95.6%和91.5%经统计分析,在7个轮廓关键点精确定位时,横纵坐标平均误差范围在1.5%和1.7%,满足舰面目标轮廓点定位的实际需求。
[1] 胡容兵,谢君,傅冰.飞行甲板安全评价指标体系研究[J].海军工程大学学报,2013,25(06):93-98.
Hu R B,Xie J,Fu B.Research on Safety Evaluation Index System of Flight Deck[J].Journal of Naval University of Engineering,2013,25(06):93-98.
[2] RYAN J C,M.L C,NICK R,et al.Designing an interactive local and global decision support system for aircraft carrier deck scheduling[J].American Institute of Aeronautics and Astronautics,2011,1516:1-3.
[3] JOHNTON.J S.A feasibility study of a persistent monitoring system for the flight deck of u.s.Navy aircraft carriers[D].State of Alabama:DEPARTMENT OF THE AIR FORCE AIR UNIVERSITY,2009.
[4] JOHNSTON J S,SWENSON E D.Feasibility study of global-positioning-system-based aircraft-carrier flight-deck persistent monitoring system[J].Journal of Aircraft,2010,47(05):1624-1635.
[5] Davis B J,Kaszeta R W,Chambers R D,et al.Machine vision tracking of carrier-deck assets for improved launch safety[C]//Signal Processing,Sensor Fusion,and Target Recognition XXII.Baltimore,Maryland,United States,2013.
[6] 田少兵,朱兴动,范加利,王正.基于检测的舰载机多目标实时跟踪算法[J/OL].洛阳:航空兵器,2020:1-8[2021-05-16].http://kns.cnki.net/kcms/detail/41.1228.TJ.20201009.1809.001.html.
Tian S B,Zhu X D,Fan G L,et al.Multi-target real-time tracking algorithm for carrier-borne aircraft based on detection[J/OL].Luoyang:Aeronautical Weapon,2020:1-8[2021-05-16].http://kns.cnki.net/kcms/detail/41.1228.TJ.20201009.1809.001.html.
[7] 陈宁,李梦璐,袁皓,等.遮挡情形下的行人检测方法综述[J].计算机工程与应用,2020,56(16):13-20.
Chen N,Li M L,Yuan H,et al.Review of pedestrian detection in occlusion case[J].Computer Engineering and Applications,2020,56(16):13-20.
[8] Ghiasi G,Fowlkes C C.Occlusion coherence:localizing occluded faces with a hierarchical deformable part model[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition.Columbus,OH,USA,2014.
[9] 梁杰, 任君, 李磊,等.基于典型几何形状精确回归的机场跑道检测方法[J].兵工学报,2020,41(10):2045-2054.
Liang J,Ren J,Li L,et al.Airport runway detection agorithm based on accurate regression of typical geometric shapes[J].Acta Armamentarii,2020,41(10):2045-2054.
[10] 鞠默然,罗海波,王仲博,等.改进的YOLO V3算法及其在小目标检测中的应用[J].光学学报,2019,39(07):253-260.
Ju M L,Luo H B,Wang Z B,et al.Improved YOLO V3 algorithm and its application in small target detection[J].Acta Optica Sinica,2019,39(07):253-260.
[11] REDMON J,FARHADI A.YOLOv3:an incremental improvement[EB/OL].[2021-05-16].https://arxiv.org/abs/1804.02767.
[12] BAI J,ZHU J,ZHAO R,et al.Area-based non-maximum suppression algorithm for multi-object fault detection[J].Frontiers of Optoelectronics,2020,13:425-432.
[13] Bodla N,Singh B,Chellappa R,et al.Soft-nms—improving object detection with one line of code[C]//2017 IEEE International Conference on Computer Vision(ICCV).Venice,Italy,2017.
[14] 朱锴,陶攀,付忠良,等.利用关键点检测算法的超声图像定点测量[J].哈尔滨工业大学学报,2018,50(11):67-73.
Zhu K,Tao P,Fu Z L,et al.Ultrasound image fixed point measurement based on landmark detection method[J].Journal of Harbin Institute of Technology,2018,50(11):67-73.
[15] XIAO B,WU H,WEI Y.Simple baselines for human pose estimation and tracking[C]//Proceedings of the 2018 IEEE European Conference on Computer Vision.Munich,Germany,2018.
[16] NEWELL A,YANG K,JIA D.Stacked hourglass networks for human pose estimation[C]//Proceedings of the 2016 IEEE European Conference on Computer Vision.Amsterdam,The Netherlands,2016.
[17] CHEN Y,WANG Z,PENG Y,et al.Cascaded pyramid network for multi-person pose estimation[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Salt Lake City,USA,2018.
[18] 齐国强,姚剑敏,胡海龙,等.引入多尺度特征图融合的人脸关键点检测网络[J].计算机应用研究,2020,37(12):3825-3829.
Qi G Q,Yao J M,Hu H L,et al.Face key point detection network with multi-scale feature image fusion[J].Application Research of Computers,2020,37(12):3825-3829.
[19] 张梦洋.基于改进遗传算法的单目相机标定和目标定位的研究[D].扬州:扬州大学,2017.
Zhang M Y.Research on Calibration and Target Location of Monocular Camera Based on Improved Genetic Algorithm[D].Yangzhou:Yangzhou University,2017.
[20] 吴思.遮挡和姿态鲁棒的人脸关键点定位技术研究[D].杭州:浙江大学,2019.
WU S.Face Keypoint Localization Technology Based on Occlusion and Attitude Robust[D].Hangzhou:Zhejiang University,2019.