逆合成孔径雷达(ISAR)是一种全天时、全天候、远距离、高分辨的二维成像设备,在民用以及军事领域中占有重要的地位[1-3]。ISAR通过发射大宽带信号对目标进行高分辨成像,可以精确地描述目标的结构特性以及散射中心分布,与传统的雷达散射截面积(RCS)[4,5]、高分辨距离像(HRRP)[6-8]、微多普勒谱图(MD)[9-11]等相比,能够提供更加丰富的目标结构信息。因此,利用二维ISAR像进行空间目标识别一直是空间态势感知领域的研究热点[12-14]。
现阶段,利用空间目标二维ISAR像进行空间目标识别主要依靠人工提取特征,然后使用分类器实现分类。其中,文献[15]探索了二维傅里叶变换与极坐标映射技术(FT-PM)在空中目标ISAR像分类中的应用;文献[16]提出利用Trace变换提取空中目标ISAR像的小维度高判别性特征进行分类;文献[13]将尺度不变特征变换(SIFT)和显着特征组合在一起,对雷达图像进行分类;文献[17]利用多流行正则化低秩近似(MLA)方法获取SAR图像的低维表示,以实现对SAR目标的分类识别。尽管传统方法能够实现空间目标识别,但是过程复杂,耗费大量的时间与精力,且时效性差。为了实现空间目标识别的自动化,最近,深度学习(DL)在计算机视觉领域引起了人们的广泛关注[18-22]。与手动提取特征方法相比,深度学习算法凭借多层的网络结构,具有自动学习深层模态特征、获取较高分类准确率等优势。例如,文献[23]设计了一个包含2层卷积层、2层全连接层的CNN网络架构。该模型能在不同场景下从非货船目标和海杂波中提取货船目标,取得了很好的分类结果。此外,文献[24]提出一种全卷积神经网络(FCNN),当利用该网络对MSTAR数据中的10类目标进行分类时,识别率达到99.13%。但受空间目标过境时间短、成像过程复杂、以及标注需要专业人员等限制,空间ISAR像数据缺乏,导致现有的深度学习工具直接应用于空间目标ISAR图像领域会出现训练困难、难以实施等现象。
面对上述问题,迁移学习(TL)提供了一种新的解决思路。它将已学到的知识迁移到仅有少量目标数据的分类任务中,以解决不同相关领域的问题。鉴于此,本文首次提出了小样本集条件下基于迁移学习模型的空间目标ISAR像识别方法,首先通过角度旋转、方位向距离向尺度变换、斑点噪声注入等方式对空间目标ISAR像训练数据进行增强,使训练集涵盖更多空间分布情况,提升模型泛化性;然后利用迁移学习,将预先预训练好的AlexNet模型在该数据集上进行重新训练,完成网络权值的微调,解决深度神经网络模型在小样本情况下的训练过拟合问题;最后研究4种迁移配置下AlexNet迁移学习模型的分类性能,并与传统分类方法进行对比,进一步验证本文所提方法的有效性。
通常在迁移AlexNet预训练模型时有以下2种策略:一是直接将AlexNet模型作为一个固定的特征提取器,即删除AlexNet模型的最后一个全连接层,将AlexNet模型中的其余部分作为空间目标ISAR像数据集的固定特征提取器,利用所提特征训练一个分类器从而实现模型迁移;二是对AlexNet预训练模型进行权值微调,在替换掉AlexNet模型中的最后一个全连接层(FCL)后,将空间目标ISAR像数据集作为新的输入,通过反向传播方式对AlexNet模型的权值进行微调,从而实现模型迁移。
对于第1种迁移策略,只有当新数据集与训练AlexNet的原始数据集具有十分相似的特征时,该迁移策略才较为合适。但是AlexNet的预训练是在ImageNet上进行的,主要为光学图像,与雷达图像具有较大区别,且大部分训练目标与空间目标具有十分不同的特征。因此在空间目标ISAR像的分类问题上,并不适合使用该策略来迁移AlexNet预训练模型。
因此本文选取第2种权值微调策略对AlexNet预训练模型进行迁移。本文所提出的基于迁移学习的AlexNet网络模型的算法流程如图1所示,其中CL1~CL5为卷积层,FCL6~FCL8是全连接层。模型的图像输入大小为227×227,输出为空间目标类别。
在对AlexNet模型进行迁移学习时使用微调AlexNet预训练模型的策略,即修改AlexNet的FCL8的输出,由输出1000维修改为5维。修改的FCL8的参数如表1所示。
图1 本文整体算法流程图
Fig.1 The flow chart of the proposed algorithm
表1 替换AlexNet的最后一个FCL
Table 1 Parameters of the replaced layers
OriginalFCL with pre-trained weights and biasesSoftmax LayerClassification Layer (one thousand classes)ReplacedFCL with random initializationSoftmax LayerClassification Layer (five classes)
表1中,Softmax层使用的激活函数为softmax。softmax函数是二分类Logistic回归模型在多分类问题上的扩展,有多少个分类softmax函数的输出层,则拥有多少个单元。在softmax函数作用下每个神经单元都会计算出当前样本属于本类的概率。其表达式为:
(1)
式(1)中:w1,w2,w3,…,wn表示权重;b1,b2,b3,…,bn表示偏置;xi表示神经元的输出;n表示类别数,本文中n=5。
为更好改善网络识别性能,对AlexNet预训练模型的深、浅层权值设置不同的学习迁移模型训练,即将AlexNet的浅、深层结构的学习率分别设置为10-3和10-4。划分AlexNet预训练模型深浅层有以下4种方式:迁移配置1,[(CL1,CL2,CL3,CL4,CL5,FCL6,FCL7),(\)];迁移配置2,[(CL1,CL2,CL3,CL4,CL5,FCL6),(FCL7)];迁移配置3,[(CL1,CL2,CL3,CL4,CL5),(FCL6,FCL7)];迁移配置4,[(CL1,CL2,CL3,CL4),(CL5,FCL6,FCL7)]。以迁移配置4为例进行说明,其中(CL1,CL2,CL3,CL4)表示将AlexNet预训练模型的CL1,CL2,CL3,CL4作为浅层,初始权值与AlexNet预训练模型的权值保持一致,选取学习率为10-4;(CL5,FCL6,FCL7)表示将AlexNet预训练模型的CL5,FCL6,FCL7作为深层,初始权值与AlexNet预训练模型的权值保持一致,选取学习率为10-3。其他迁移设置依此类推,4种迁移配置方式如图2所示。
图2 4种迁移配置方式示意图
Fig.2 Four TL settings
空间目标ISAR像是空间目标的高能散射中心在二维平面上的分布。ISAR成像系统根据空间目标的电磁散射特性,将空间目标中的组成部分(如太阳能帆板、天线、本体等部位)映射到一个二维的图像投影平面(IPP)上,从而获得空间目标的ISAR像,ISAR的成像示意图如图3。通过图3的成像模型,利用空间目标的三维模型,生成5类空间目标,部分样例如图4所示。
图3 空间目标ISAR像获取示意图
Fig.3 Illustration of ISAR image acquisition of space target
图4 5类空间目标的三维模型及其ISAR像
Fig.4 Three-dimensional models of 5 kinds of space targets and the corresponding ISAR images
为了确定选用何种数据增强方式,接下来首先分析影响空间目标ISAR像的各种因素。
2.3.1 图像投影平面(IPP)的影响
IPP决定了空间目标在ISAR图像中的呈现形式。IPP的确定取决于相干处理间隔(CPI)内雷达视线(RLOS)方向和空间目标相对于雷达的转动矢量方向。因此受目标运动状态影响,实际成像过程中存在多种IPP,导致空间目标ISAR像的空间分布以及空间指向出现可变性。图5展示了2种不同IPP及其对应的ISAR像。
图5 2种不同IPP及其对应的ISAR像
Fig.5 ISAR images on different IPPs
图5(a)中,表示雷达视线矢量,其指向沿x轴不变。当空间目标沿旋转时,获得的IPP与x-y平面相同(IPP1);当空间目标沿旋转时,获得的IPP与x-z平面相同(IPP2)。图5(b)-图5(c)分别为了IPP1和IPP2生成的2幅ISAR图像。
2.3.2 方位向分辨率的影响
设雷达发射信号的带宽为B,空间目标在CPI期间的旋转速度为则生成的ISAR像其距离分辨率和方位分辨率可分别表示为:
Δx=c/2B
Δy=λc/2Ω
(2)
式(2)中: λc为中心频率对应的波长;表示空间目标的旋转角度;TCPI表示CPI对应的时长。距离分辨率Δx由雷达信号带宽B决定,通常是固定的。但是方位分辨率Δy由于受到目标运动角速度的影响,会导致实际情况下ISAR像在方位向上的分布具有可变性。图6展示了2幅具有相同Δx、不同Δy的ISAR像示意图,2张ISAR像在方位向上的像素总数相同,但空间分布发生了改变。
图6 具有不同方位分辨率Δy的2张ISAR像
Fig.6 Two ISAR images with different azimuth resolution Δy
2.3.3 采样率的影响
线性调频信号是雷达系统中经常使用的信号。当雷达系统对接收到来自目标的线性调频信号进行ISAR成像处理时,首先需要利用A/D转换器对信号进行采样,然后再对信号进行匹配滤波,平动补偿以及方位向上的快速傅里叶变换。其中,A/D采样率Sr是影响ISAR像的重要因素,因为Sr决定了距离像在匹配滤波后的网格间距c/2Sr,从而导致ISAR像在距离向上的空间分布具有可变性。图7展示了2种不同采样率Sr对应的ISAR像。
2.3.4 其他因素的影响
由于目标的RCS对方位角的依赖性较强,使得自遮挡、非线性散射机制以及调制引起的载频变化等因素将进一步增强ISAR像的可变性。此外,不完全地平移运动补偿(TMC)引起的ISAR像散焦与模糊也会影响ISAR像的空间分布。
通过上述分析,最终对ISAR像采用的数据增强方式主要包括:角度旋转、方位向与距离向上的尺度变换以及斑点噪声注入。具体为:① 旋转,从-90°开始,每次旋转20°,旋转区间为[-90°,90°];② 方位向尺度变换,按一定的比例因子对空间目标沿方位向进行缩放,比例因子的取值依次为0.3,0.7,1.1,…,3.9;③ 距离向尺度变换,按一定的比例因子对空间目标沿距离向进行缩放,比例因子的取值依次为0.3,0.7,1.1,…,3.9;④ 噪声注入,分别给方位向尺度变换与距离向尺度变化后的图像注入斑点噪声,噪声服从均值为0方差为0.1的高斯分布。数据增强的结果如图8所示。
图7 2种不同采样率对应的ISAR像
Fig.7 ISAR images corresponding to two different sampling rates
图8 ISAR像数据增强结果
Fig.8 DA results of an ISAR image
在进行数据增强操作后,每个原始训练图像会产生总共1+5×10 = 51张新图像。在本文任务中,测试集占总数据量的30%,剩余数据中训练集占70%,验证集占30%。由于每类空间目标有265张ISAR像,因此随机选择130张用于训练,56张用于验证、79张用于测试。那么在数据增强之后,每种空间目标的训练数据集中总共有6 630张ISAR图像。因此,由5类空间目标所组成的新训练集中,共有5×130×51 = 33 150张ISAR像。
空间目标ISAR像的识别属于多分类问题,故采用训练准确率(training accuracy)以及交叉熵损失(training loss)来评估AlexNet迁移学习模型的训练效果。下面分别给出其定义:
(3)
式(3)中:M表示当前训练样本的总数;N为正确预测的样本数;K为样本的类别数,且大于等于3;yij={0,1},在第i个样本事件中yij是j类则为1,否则为为第j类在第i个样本事件中的输出。
为了减少训练过程中的交叉熵损失,提高训练准确度,有必要为AlexNet迁移学习模型选择合适的优化器(optimizer)。鉴于Adam优化器集成了AdaGard与RMSProp的主要优点,不仅如RMSProp算法那样基于一阶矩均值计算权值的适应性学习率,还充分利用了梯度的二阶矩均值,使模型训练具有更快的收敛速度。因此,论文采用Adam优化器进行AlexNet迁移学习模型的加速训练。
图9给出了4种迁移配置下的训练结果。
图9 4种迁移配置下AlexNet迁移学习模型的训练结果图
Fig.9 The training results of ATLM under four TL settings
如图9所示,4种迁移配置下AlexNet迁移学习模型均达到了较好的训练效果,训练准确率和验证准确率随着训练时间的增加而不断提高,并最终收敛到一个较高水平。其中,第1种迁移配置下的最终训练准确率与验证准确率分别为98.50%、95.36%;第2种迁移配置下的最终训练准确率与验证准确率分别为99.50%、97.14%;第3种迁移配置下的最终训练准确率与验证准确率分别为98.50%、95.71%;第4种迁移配置下的最终训练准确率与验证准确率分别为99.50%、95.36%。相应地,训练数据和验证数据的交叉熵损失随着训练时间的增加而不断减小,最终趋近一个较小值。其中,第1种迁移配置下的最终交叉熵损失与验证交叉熵损失为0.256 7%、0.021 7%;第2种迁移配置下的最终交叉熵损失与验证交叉熵损失为0.012 0%、0.164 4%;第3种迁移配置下的最终交叉熵损失与验证交叉熵损失为0.024 5%、0.179 7%;第4种迁移配置下的最终交叉熵损失与验证交叉熵损失为0.021 8%、0.139 8%。
本节基于训练好的AlexNet迁移学习模型,对4种配置下的模型分类性能进行了对比分析。同时研究了数据增强对AlexNet迁移学习模型分类性能的影响。最后将模型的分类性能与其他迁移方式及传统方法进行了对比。
3.2.1 迁移配置对分类性能的影响
为了确定不同迁移配置下模型分类性能的差异,本节利用3.1节中训练得到的4种AlexNet迁移学习模型,对测试数据进行分类。图10给出了4种模型在对测试数据进行分类时得到的混淆矩阵,相应的分类准确率如表2所示。
图10 4种迁移配置下AlexNet迁移学习模型的测试结果
Fig.10 The test confusion matrices of ATLM under four TL settings
表2 4种迁移配置下AlexNet迁移学习模型的
测试准确率
Table 2 Test accuracy of ATLM under four TL settings
方法设置1设置2设置3设置4平均准确率/%93.9295.9594.1895.4494.87
图10(a)~图10(d)中,横坐标表示预测值,纵坐标表示真实值,斜对角线上的值表示正确分类结果。如图10与表2所示,4种配置下的AlexNet迁移学习模型均具有较高的分类性能,平均分类准确率达到了94.87%。为避免实验过程中训练数据与测试数据的随机选取给空间目标分类效果造成影响,接下来按原始比例重新随机划分数据集,并对4种迁移配置下的模型进行重新训练、测试。5次检验结果在表3中给出。
表3 4种配置下的AlexNet迁移学习模型
在5次试验中的测试准确率(%)
Table 3 Test accuracy of ATLM in five cross-checks under four TL settings
设置1设置2设置3设置 4平均第1次93.9295.9594.1895.44/第2次93.6794.6894.1895.19/第3次92.1593.6792.6694.43/第4次94.1894.6894.9496.46/第5次92.6695.7093.9294.43/平均93.3294.9493.9895.1994.36
表3中给出了4种迁移配置下AlexNet迁移学习模型在5次试验中的测试准确率,4种迁移配置下AlexNet迁移学习模型在5次试验中均表现出了较好的分类性能。迁移配置1到迁移配置4的平均测试准确率分别为93.32%、94.94%、93.98%、95.19%。4种迁移配置在5次试验中的平均测试准确率达到了94.36%,验证了本文方法的有效性。其中第4种配置下AlexNet迁移学习模型的平均分类准确率相对最高为95.19%,第1种迁移配置下AlexNet迁移学习模型的平均分类准确率相对最低为93.32%。最高平均分类准确率与最低平均分类准确率相差1.87%。说明在数据增强条件下,4种不同配置对AlexNet迁移学习模型的分类性能影响较小。
3.2.2 数据增强对分类性能的影响
为了确定数据增强对AlexNet迁移学习模型分类性能的影响,本文利用未增强数据对4种不同配置下的AlexNet迁移学习模型进行重新训练,5次测试结果如表4所示。其中,训练数据650张、验证数据280张、测试数据395张。结果如图11所示。
表4 数据未增强时4种配置下的AlexNet迁移学习模型
在5次检验中的测试准确率(%)
Table 4 Test accuracy of ATLM under four TL settings in five cross-checks without DA operation
设置 1设置 2设置3设置4平均第1次93.4292.1592.4091.65/第2次91.6590.1389.6289.11/第3次91.4090.3889.3788.86/第4次93.1691.6591.9089.37/第5次91.3992.9190.6390.13/平均92.2091.4490.7889.8291.06
图11 数据增强与数据未增强条件下AlexNet迁移
学习模型的分类效果
Fig.11 Comparison of ATLM classification performance between DA and No-DA operations
表4中给出了数据未增强时4种配置下AlexNet迁移学习模型在5次试验中的测试准确率,未采用数据增强时,4种配置下模型的平均分类准确率相较表3有所降低。配置1到配置4的平均测试准确率分别为92.20%、91.44%、90.78%、89.82%。4种配置在5次试验中的平均测试准确率为91.06%。其中第1种配置下AlexNet迁移学习模型的平均分类准确率相对最高为92.20%;第2、3、4种配置下模型的平均分类准确率依次降低,分别为91.44%、90.78%及89.82%。说明数据未增强时,迁移模型权值调整越小、模型的分类性能越好。
由图11所示,数据增强有效提高了AlexNet迁移学习模型的分类性能。其中4种配置条件下对应的平均分类准确率分别提升了1.12%、3.50%、3.20%、5.37%。平均分类准确率的提升均值为3.30%。说明本文针对空间目标ISAR像的数据增强方式,可以提升AlexNet迁移学习模型的泛化性,在一定程度上避免模型出现过拟合现象。
3.2.3 与其他迁移方式及分类方法进行对比
如2.1节中所述,迁移方式还包括将AlexNet预训练模型作为特征提取器(后文统一称特征提取器AlexNet),直接提取空间目标的深层特征,然后利用所提特征训练一个分类器从而实现模型迁移。为对比2种迁移方式的分类性能,本节利用特征提取器AlexNet提取空间目标ISAR像的特征,并采用支持向量机(SVM)对所提特征进行分类。表5给出了此种迁移方式下的5次交叉检验分类准确率。
表5 特征提取方式下的5次交叉检验分类准确率(%)
Table 5 Classification accuracy of five cross-checks under feature extraction TL strategy
第1次第2次第3次第4次第5次平均84.5685.3286.3385.0684.3085.11
如表5所示,特征提取方式下的平均分类准确率为85.11%。低于本文所采用权值微调迁移方式下的分类准确率(数据增强条件下4种迁移配置的平均分类准确率分别为93.32%、94.94%、93.98%、95.19%;数据不增强条件下4种迁移配置的平均分类准确率分别为92.20%、91.44%、90.78%、89.82%)。该结果说明权值微调的迁移方式更适合于空间目标ISAR像的分类。
为了进一步证明权值微调的迁移方式所得到的迁移模型具有更好的分类性能,将3.2.1节中训练得到的AlexNet迁移学习模型也作为特征提取器,提取空间目标ISAR像的特征,并利用SVM分类器对所提特征进行分类。表6给出了此方式下的5次交叉检验分类结果。
表6 AlexNet迁移学习模型作为特征提取器方式下的
5次交叉检验分类准确率(%)
Table 6 The classification accuracy in five cross-checks when ATLM is used as a feature extractor
设置 1设置 2设置3设置4第1次94.6894.9493.9294.43第2次93.1695.7093.6796.71第3次95.4493.6794.9495.44第4次94.1895.9594.4396.46第5次93.4296.7194.6895.95平均94.1895.3994.3395.80
由表6可知,相比于特征提取器AlexNet所提特征,4种配置下AlexNet迁移学习模型所提特征具有更好的目标表现力。此方式下,迁移配置1到迁移配置4的平均分类准确率分别为94.18%、95.39%、94.33%、95.80%。相比于表5中的85.11%,平均分类准确率分别高出9.07%、10.28%、9.22%、10.69%。从而验证了权值微调的迁移方式所得到的迁移模型具有更好的分类性能。
与传统手动提取特征的目标分类方法相比,本文基于迁移学习的分类方法无需手动提取特征,节约了大量人力物力,且时效性强。为了进一步检验本文分类方法相比于传统分类方法的分类性能,本文将传统方法的分类结果与本文方法的分类结果进行了对比。传统方法主要包括FT-PM、Trace(Radon)、ITTI+SIFT和MLA等,选用配置4下的AlexNet迁移学习模型(TLM)。表7给出了传统方法与本文方法在进行5类空间目标ISAR像分类后的结果。图12给出了直方图。
由表7与图12可知,相比于传统方法,AlexNet迁移学习模型具有更好的分类性能,总的分类准确率比次优方法高出8.86%。同时,本文方法无需手动提取特征,可以对空间目标ISAR像进行自动识别,因而更适用于实际中的空间目标分类任务。
表7 本文方法与传统方法的分类结果(%)
Table 7 Comparison of classification results between the proposed method and the traditional method
方法分类准确率卫星1卫星2卫星3卫星4卫星5平均FT-PM21.5253.1646.8483.5460.8053.16Trace(Radon)55.7082.2855.7088.6159.4968.35ITTI+SIFT64.5672.1556.9694.9470.8971.90MLA84.8189.8778.4892.4187.3486.58TLM (Ours)93.6798.7389.8797.4797.4795.44
图12 本文方法与传统方法分类结果直方图
Fig.12 Bar chart of classification results of the proposed method and traditional methods
本文提出了一种基于数据增强与迁移学习的空间目标ISAR像识别新方法。该方法通过数据增强操作使空间目标ISAR像的训练集涵盖更多的空间分布情况。并以预训练好的AlexNet深度网络模型为基础,采用权值微调策略实现模型迁移,从而解决了小样本集下利用ISAR像进行空间目标快速自主识别难的问题。仿真算例表明:
1) 该方法可以实现小样本数据条件下空间目标ISAR像的快速自主识别,具有较高的分类准确率。
2) 数据增强操作可以有效提高AlexNet迁移学习模型的分类性能,一定程度上避免拟合现象。
3) 采用权值微调迁移策略训练得到的模型对空间目标ISAR像的分类性能,要高于直接将预训练好的AlexNet深度网络模型作为特征提取器的分类方式。
4) 与传统手动特征提取方法相比,AlexNet迁移学习模型无需手动提取特征,且具有更好的分类性能。
[1] Liu Q,Liu A,Wang Y,et al.A super-resolution sparse aperture ISAR sensors imaging algorithm via the MUSIC technique[J].IEEE Transactions on Geoscience and Remote Sensing,2019,57(09):7119-7134.
[2] Wu W,Xu S,Hu P.; et al.Inverse synthetic aperture radar imaging of targets with complex motion based on optimized non-uniform rotation transform[J].Remote Sensing,2018,10(04):593.
[3] Chen J,Pan X,Xu L,et al.Deception jamming against ISAR with coupled two-dimensional compressive sensing via sub-nyquist sampling[J].IEEE Access.2018,6:55693-55700.
[4] Sedra H,Simi S,Milanovi B,et al.Partial angular-diversity RCS-based target recognition using subsequence dynamic time-warping[J].Journal of Electromagnetic Waves and Applications,2019,33(14):1-13.
[5] Meller M.On bayesian tracking and prediction of radar cross section[J].IEEE Transactions on Aerospace and Electronic Systems,2018,55(99):1756-1768.
[6] Wang J,Liu Z,Li T,et al.Radar HRRP target recognition via statistics-based scattering center set registration[J].IET Radar Sonar Navigation,2019,13(08):1264-1271.
[7] Zhao C,He X,Liang J,et al.Radar HRRP target recognition via semi-supervised multi-task deep network[J].IEEE Access,2019,7:114788-114794.
[8] Zhao I F,Liu Y,Huo K,et al.Radar HRRP target recognition based on stacked autoencoder and extreme learning machine[J].Sensors,2018,18(01):173.
[9] Chen V C.The micro-doppler effect in radar[M].Artech House.2019.
[10] Sun L,Chen W.Micro-doppler effect removal in ISAR imaging by promoting joint sparsity in time-frequency domain[J].Sensors,2018,18(04):951.
[11] Gu F F,Fu M H,Liang B S,et al.Translational motion compensation and micro-doppler feature extraction of space spinning targets[J].IEEE Geoence & Remote Sensing Letters,2018,15(10):1550-1554.
[12] Zhou Y,Lei Z,Cao Y,et al.Attitude estimation and geometry reconstruction of satellite targets based on ISAR image sequence interpretation[J].IEEE Transactions on Aerospace and Electronic Systems,2018,55(04):1698-1711.
[13] Ayoub K,Abdelmalek T,Ali K,et al.Radar target recognition using salient keypoint descriptors and multitask sparse representation[J].Remote Sensing,2018,10(06):843.
[14] Andrea,Manno-Kovacs,Elisa,et al.Image based robust target classification for passive ISAR[J].IEEE Sensors Journal,2018,19(01):268-276.
[15] Park S H,Jung J H,Kim S H,et al.Efficient classification of ISAR images using 2d fourier transform and polar mapping[J].IEEE Transactions on Aerospace & Electronic Systems,2015,51(03):1726-1736.
[16] Lee S J,Park S H,Kim K T.Improved classification performance using ISAR images and trace transform[J].IEEE Transactions on Aerospace & Electronic Systems,2017,53(02):950-965.
[17] Yu M,Dong G,Fan H,et al.SAR target recognition via local sparse representation of multi-manifold regularized low-rank approximation[J].Remote Sensing,2018,10(02):211.
[18] Corona E,G Alenyà,Gabas A,et al.Active garment recognition and target grasping point detection using deep learning[J].Pattern Recognition,2018,74:629-641.
[19] Li Y,Song B,Kang X,et al.Vehicle-type detection based on compressed sensing and deep learning in vehicular networks[J].Sensors,2018,18:4500.
[20] Sun X,Wu P,Hoi S.Face detection using deep learning:an improved faster RCNN approach[J].Neurocomputing,2018,299:42-50.
[21] Garcia-Rodrigueza J,Gomez-Donosoa F,Opreaa S,et al.COMBAHO:A deep learning system for integrating brain injury patients in society[J].Pattern Recognition Letters,2020,137:80-90.
[22] Zhu G,Zhang L,Shen P,et al.Continuous gesture segmentation and recognition using 3DCNN and convolutional LSTM[J].IEEE Transactions on Multimedia,2018,21:1011-1021.
[23] Chao W,Hong Z,Fan W,et al.Ship classification with deep learning using COSMO-SkyMed SAR data[C]//Proc.of the 2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS 2017),2017.
[24] Hu W,Hu R,Xie N,et al.Image classification using multiscale information fusion based on saliency driven nonlinear diffusion filtering[J].IEEE Transactions on Image Processing,2014,23(04):1513-1526.