【信息科学与控制工程】
作为雷达对抗的重要组成部分,雷达信号识别技术可以帮助我军获得敌方雷达信息,从而正确判断敌情。对于雷达信号识别而言,正确识别雷达信号的调制方式不仅能够提高雷达信号的参数估计精度,还能判断雷达的威胁等级。因此,研究一种能适应复杂电磁环境的雷达信号调制方式识别方法,对于提升我军的电子侦察能力具有重要意义[1-2]。
随着战场电磁环境的日益复杂,传统基于脉间五大参数的雷达信号识别方法性能逐渐下降。雷达信号的脉内信息被逐渐利用,而时频分析由于可以提取信号频率随时间变化的规律而逐渐被学者应用于雷达信号识别领域[3-6]。
近年来,随着深度学习技术的发展,神经网络凭借着其强大的特征学习能力被应用于信号识别领域。文献[7]提出了基于机器学习理论的雷达辐射源识别技术的主要研究方向和难点问题,并对相应的解决方法进行了讨论。文献[8]搭建了深度置信网络,对信号双谱对角切片结构特征进行学习,实现了对低截获概率(LPI)雷达信号的识别。文献[9]利用深层卷积网络,实现了对低截获信号的分类识别。文献[10]利用卷积神经网络对24种不同调制方式的通信信号进行识别,通过实验证明了在不对信号进行人为特征提取情况下,网络依然可以有效识别信号的调制方式。
本文提出了一种基于深层神经网络的联合特征提取方法,对雷达信号的调制方式进行识别。一方面对信号进行时频变换,得到信号的时频特征,然后利用卷积神经网络对信号的时频特征进行特征提取;另一方面又直接使用循环神经网络提取信号的时域特征,将二者组合成信号的联合特征进行识别。仿真实验证明,无论是相较于传统方法还是单一特征来说,本方法在提升识别准确率的同时具有较强的鲁棒性。
作为一种典型的二次型时频分析方法,魏格纳-威利分布(WVD)由E.P.Wigner于1932年首次提出,后来J.Vill又将其引入到信号处理领域,因其较好的时频聚集性,在信号处理方面得到了广泛的应用。但由于二次型变换的先天缺陷,在处理多分量信号时会产生交叉项干扰。基于此,许多学者陆续开始对WVD进行改进,Cohen[11]将这些改善方法进行了总结,通过变换不同的核函数给出了统一表示,这些方法被统称为Cohen类时频分布。
Choi-Williams分布是Cohen类时频分布的一种,其核函数为指数函数。由于CWD对于交叉项具有良好的抑制效果,从而被广泛应用于雷达信号的时频分析。其数学表达式为:
(1)
式(1)中,σ为衰减因子,本文设置为1。
LSTM网络,又称作长短时记忆网络,由Hochreiter[12]等人提出。相较于传统的循环神经网络,其对于时序数据的分析具有更强的适应性。同时,其优化了网络结构,改善了梯度弥散、梯度爆炸和长期记忆能力不足等循环神经网络容易出现的问题,使其更适应长度较长的序列,其网络结构如图1所示。
图1 长短时网络的网络结构示意图
从图1可以看出,LSTM拥有3个“门”和1个记忆单元结构。其中,“门”本质就是一个全连接层,其中激活函数为sigmoid函数,门函数的数学表达式为:
g(x)=σ(Wx+b)
(2)
式(2)中:σ为sigmoid激活函数;W是门的权重向量;b是网络偏置。
LSTM中的3个门分别为输入门、输出门和遗忘门。输入门的作用是将当前时刻网络输入保存到单元状态;遗忘门的作用是将上一时刻的单元状态保留到当前时刻的单元状态;输出门的作用是将当前时刻的单元状态输出到LSTM的当前输出值。
卷积神经网络(convolutional neural networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一[13-14]。CNN通过权值共享的方式来减少网络参数,在计算机视觉领域应用比较广泛。卷积运算的数学表达式为:
(3)
式(3)中:Mj为输入特征矢量;上标l代表第l层网络;k为卷积核;b为网络偏置;为第l层输出,为第l层输入(也是第l-1层的输出)。
卷积神经网络基本结构主要包括:输入层、卷积层、全连接层和输出层。其中输入层是用来向网络输入数据;卷积层主要对输入的数据进行卷积和池化操作,提取图片特征;全连接层的作用是将数据从二维变为一维;而输出层则通过搭配Softmax函数[15]实现对数据的分类。
本模型将雷达信号及其经过时频变换后的时频矩阵作为输入。其中雷达信号的长度为1 024,其时频矩阵的维度为1 024×1 024,模型的深度为25层,采用的损失函数为交叉熵损失函数,LSTM网络、CNN网络和分类网络具体网络分布如表1、表2和表3所示。
表1 LSTM网络分布情况
网络结构激活函数输出维度LSTM网络输入层无1 024LSTM1ReLU20LSTM2ReLU40LSTM3ReLU80
表2 CNN网络分布情况
网络结构激活函数输出维度CNN网络输入层无1 024×1 024Conv1ReLU512×512×64Pool1无256×256×64Conv2ReLU256×256×64Pool2无128×128×64Conv3ReLU64×64×64Pool3无32×32×64Conv4ReLU32×32×32Pool4无16×16×32Conv5ReLU16×16×16Pool5无8×8×16Conv6ReLU8×8×16Pool6无4×4×16Flatten无256
表3 分类网络分布情况
网络结构激活函数输出维度分类网络联合特征层无336Fc1ReLU256Fc2ReLU128Fc3ReLU64Fc4ReLU32Fc5ReLU16输出层Softmax10
对信号进行时频变换的过程会不可避免地丧失信号原本的时域特征,因此本模型设计了一种联合特征提取方法。本模型由LSTM网络、CNN网络和分类网络等3部分构成,其系统框图如图2所示。
从图2可知,雷达信号是一种时序信号,本模型一方面使用循环神经网络对信号的时序特征进行提取;另一方面,在对信号进行CWD变换后,使用卷积神经网络对变换后的时频矩阵进行时频特征的提取。最后,将2种特征进行合成形成联合特征,并用分类网络进行识别。
图2 系统框图
本实验使用的数据均是由MATLAB仿真生成,信号包含的调制方式有10种,分别为CW、LFM、NLFM、BPSK、QPSK、BFSK、NS、SFM、EQFM、COSTAS。仿真信号采用归一化频率和带宽表示,雷达信号长度均为1 024个采样点。对每一类雷达信号在-10~10 dB信噪比变化范围内,每隔2dB产生2 000个样本,并按照信号种类做上标签。把生成的数据按照7∶2∶1的比例构成训练集、验证集和测试集,用于网络训练、验证和测试。实验使用的编程语言为Python3.6,开发框架为TensorFlow1.15.0。本文实验的硬件环境是Windows7 64bit操作系统,Intel:i7-10750H@ 2.6GHz处理器,搭配NVIDIA GeForce RTX 2060 6GB显卡以及16GB DDR4内存。
网络的训练过程共迭代了100轮,一轮里每个批次的数量为64,学习率为0.001,采用的优化器为Adam。网络训练过程中损失函数和识别精度的变化情况如图3所示。
图3 网络训练曲线
由图3可知,随着训练次数的增加,本模型的损失函数会逐渐降低,而识别准确率则逐渐升高。从训练集和验证集的对此情况可以开出,本模型的拟合情况良好,并没有出现过拟合现象。
1) 3.2.2 和单一特征对比情况
本实验与使用单一特征的网络进行对比,对比使用的网络结构与本模型相似。其中,仅使用时域特征的网络由表1中的LSTM网络以及分类网络组成;而仅使用时频特征的网络由表1中的CNN网络和分类网络组成。为了方便表述,将以上2种模型简称为RNN模型和CNN模型。使用与本实验相同的数据集分别对RNN模型和CNN模型进行100次训练后,用测试集在不同信噪比下对本模型以及上面2种模型进行测试,比较3种模型的识别精度和运行时间,对比结果如图4和表2所示。
图4 不同信噪比下3种模型的识别曲线
表2 3种模型运行时间
模型单个样本测试时间/ms本模型4.37RNN3.14CNN2.11
由图4可知,当信噪比在-10~10 dB范围内,本模型在各个信噪比下的识别准确率都高于其他2种模型。另一方面,可以发现当信噪比较高时,RNN模型识别精度要优于CNN模型,而当信噪比较低时情况正好相反,主要原因是信号的时域特征要比频域特征更容易受到噪声的影响。而从表2可知,,3种模型中由于本模型的结构更为复杂,其运算时间也相对较长。
2) 和传统方法对比情况
本实验选择2种传统算法与本算法对比,分别是基于对角切片的深度置信网络(bispectra diagonal slice-deep belief network,BDS-DBN)和载频偏差-SVM算法。
BDS-DBN算法的数据条件参照文献[8],DBN网络的深度为2层,为了保证对原始数据的全信息输入,底层的可视层单元数设为128,隐含层单元数为80,第2层的隐含层单元数为600;载频偏差-SVM算法的实验设置参照文献[16]。在不同的信噪比下,使用本实验中的测试集对3种算法进行测试,得到的测试结果如表3所示。
表3 不同信噪比下的算法识别率
方法SNR/dB-10010本文算法0.2120.9410.991BDS-DBN0.0940.6430.962SVM0.1070.8400.905
由表3可知,本算法由于使用了联合特征,在识别率上要优于传统的算法,而且本算法在信噪比为0 dB时的识别精度要远高于传统的方法,本算法在鲁棒性上相对传统算法较为优秀。
本文设计了一种提取混合特征的网络模型,将雷达信号的时域特征与时频特征进行组合,形成了包含更多信息的联合特征,并使用分类网络对信号进行识别。实验表明,本算法在识别精度上优于只使用单一特征的网络和传统算法,且具有良好的抗噪声能力。本文在网络结构上没有进行过多的更改,在模型的优化方面还值得今后进一步研究。
[1] SHEN J H,HUANG J C,ZHU Y C,et al.Overview of Radar Signal Fast Recognition[J].electronic information warfare technology,2017,32(05):5-10.
[2] 李合生,韩宇,蔡英武,等.雷达信号分选关键技术研究综述[J].系统工程与电子技术,2015(12):2035-2040.
[3] LUNDEN J,KOIVUNEN V.Automatic Radar Waveform Recognition[J].IEEE Journal of Selected Topics in Signal Processing,2007,1(01):124-136.
[4] ZHANG M,LIU L T,DIAO M.LPI Radar Waveform Recognition Based on Time-Frequency Distribution[J].Sensors,2016,16(10):1682.
[5] YANG L B,ZHANG S S,XIAO B.Radar emitter signal recognition based on time-frequency analysis[C]//Proc.of the IET International Radar Conference 2013.Xi’an:IET,2013:1-3.
[6] 曲志昱,毛校洁,侯长波.基于奇异值熵和分形维数的雷达信号识别[J].系统工程与电子技术,2018,40(02):303-307.
[7] 李蒙,朱卫纲,陈维高.基于机器学习的雷达辐射源识别研究综述[J].兵器装备工程学报, 2016(09):171-175.
[8] 王星,周一鹏,周东青,等.基于深度置信网络和双谱对角切片的低截获概率雷达信号识别[J].电子与信息学报,2016,38(11):2972-2976.
[9] GUO Q,YU X,RUAN G Q.LPI Radar Waveform Recognition Based on Deep Convolutional Neural Network Transfer Learning[J].Symmetry,2019,11(04):540-553.
[10] O’SHEA T J,ROY T,CLANCY T C.Over the Air Deep Learning Based Radio Signal Classification[J].IEEE Journal of Selected Topics in Signal Processing,2018,12(01):168-179.
[11] HOCHREITER S,SCHMIDHUBER J.Long Short-Term Memory[J].Neural Computation,1997,9(08):1735-1780.
[12] LOUGHLIN P J.Methods and applications of time-frequency analysis[J].Asian Pacific Journal of Allergy & Immunology,2000,107(05):30-36.
[13] GU J X,WANG Z H,KUEN J,et al.Recent Advances in Convolutional Neural Networks[EB/OL].https://arxiv.org/pdf/1512.07108.pdf.
[14] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521(7553):436.
[15] WANG F,CHENG J,LIU W Y,et al.Additive Margin Softmax for Face Verification[J].IEEE Signal Processing Letters,2018,25(07):926-930.
[16] 资晓军,谢丹,杨剑波.通信辐射源指纹特征提取算法研究[J].舰船电子工程,2017,37(03):63-65,121.
Citation format:SHI Limeng, YANG Chengzhi, WANG Meiling, et al.Recognition Method of Radar Signal Modulation Method Based on Deep Network[J].Journal of Ordnance Equipment Engineering,2021,42(06):190-193,218.