低质量图像修复与图像质量评估专栏

专栏主编:丁 辉 博士(首都师范大学 副教授、硕导)

刘帅奇 博士(河北大学 副教授、硕导)

导语:低质量图像修复与质量增强一直是从事计算机视觉/图像任务研究的科技人员的一个研究热点,也是制约视觉系统与装备实际应用的瓶颈。由于深度学习技术的不断发展,计算机视觉和图像处理在多个领域也取得了显著的成功。

为进一步加强基于视觉武器装备的科学创新与应用,本专栏收录了相关高等院校和研究机构的5篇论文,内容涵盖雷达图像的去噪增强、高光谱/多光谱图像增强、红外舰船图像增强以及水下图像增强等方面。希望能够推进业内相关科研人员的深入合作与交流,推动图像增强前沿技术探索,促进多领域研究的深度融合与发展。

基于深度学习的合成孔径雷达图像去噪综述

雷 钰1,2,刘帅奇1,2,3,张璐瑶1,2,刘 彤1,2,赵 杰1,2

(1.河北大学 电子信息工程学院, 河北 保定 071002; 2.河北省机器视觉技术创新中心, 河北 保定 071002; 3.中科院自动化所 模式识别国家重点实验室, 北京 100190)

摘要:传统的合成孔径雷达图像去噪算法在细节保存能力和运行时间上存在局限性,而深度学习方法具有独特优势。通过对国内外有关文献的归纳和总结,分析了基于深度学习的合成孔径雷达图像去噪算法的理论基础和优缺点,阐述了网络模型的具体实现细节。从监督模型和自监督模型方面对合成孔径雷达去噪算法进行分类。叙述了去噪算法的训练及测试过程,包括训练及测试数据的、训练过程中常用的损失函数和分析、模拟及具体测试数据评价指标;展望了合成孔径雷达图像散斑抑制的研究方向。

关键词:合成孔径雷达图像; 相干斑抑制; 深度学习; 卷积神经网络; 图像去噪

1 引言

散斑是SAR图像中常见的一个问题,其主要来源于图像采集,与高斯噪声不同,散斑噪声是空间相关和信号相关的乘性噪声,严重影响了SAR图像的分析和解译[1-5]。因此,降低噪声以提高SAR图像质量对后续SAR图像处理任务至关重要。近年来,随着深度学习在自然图像去噪和复原等任务中的成功应用,如何将其应用在SAR图像去噪领域引起学术界广泛关注。

本文对现有基于深度学习方法的SAR图像去噪进行概述与分析,目的在于深入了解该领域的研究现状,对迄今为止基于深度学习的SAR图像去噪方法进行评估,分析其优势和局限性,并展望SAR图像去噪的发展前景。

2 SAR图像中相干斑形成机理模型

SAR图像中的相干斑噪声是在雷达回波信号由于信号的衰落引起的,其形成过程与数字图像处理中的噪声有本质区别。从空域角度来分析可将乘性相干斑噪声建模为[1]

I=MN

(1)

式中: I表示含有相干斑噪声的SAR图像; M表示未受到噪声影响的理想地物目标测量值; N表示SAR系统成像时产生的相干斑噪声,且MN相互独立。

通常假设乘性随机噪声N服从L阶均值为1,方差为1/L的Gamma分布[2],则噪声的概率密度分布函数为:

(2)

式中: L表示等效视数; Γ(·)表示Gamma函数。

由于乘性噪声模型难以分析,通常将乘性噪声转化为加性模型进行分析。通常采用同态滤波将式(2)转化为加性模型[3]。首先,对式(1)两边进行对数变换,可得:

Log(I)=Log(M)+Log(N)

(3)

显然,式(3)为加性噪声模型。在进行去噪完以后需要将去噪后的图像再指数化返回原有的空间。这一过程中需要对图像的均值漂移进行调整。

当然,也有学者采用构造法将乘性噪声模型转化为加性噪声模型[4],其构造过程如式(4)所示:

I=MN=M+[N-1]M=M+UM=M+V

(4)

因为MN不相关,所以和N-1也不相关,因此V表示和真实图像分布相关的噪声。在上述模型中,噪声均值从1变为0,方差变成随M变化而变化的参数。V=M(N-1)表示一种与信号不独立且均值为0的非平稳加性噪声。因此噪声图像可以表示为I-M,因此在神经网络中可以通过残差学习策略进行噪声去除,即得到R(i)≈V,然后得到干净图像M=I-R(i)。

3 基于深度学习的SAR去噪算法分析

深度学习方法主要是通过网络对大量数据的特征进行学习,然后对新数据进行预测的过程。深度学习在图像处理领域得到了广泛的应用,如图像分割、图像识别、图像超分辨率及图像去噪等。其中,卷积神经网络(convolutional neural networks,CNN)是最有力的工具之一,也是最早应用于SAR图像去噪的工具。根据近年来深度学习在SAR图像中的应用,本文将其主要归为两类:基于监督学习的SAR图像去噪算法和基于自监督学习SAR图像去噪算法。

3.1 有监督学习的SAR图像去噪

1) 基于对数变换的SAR图像去噪算法

Chierchia等[3]提出了第一个使用深度学习方法的SAR图像去噪算法——SARCNN。此外,Liu等[6]提出一种基于CNN与引导滤波的SAR图像去噪算法,该算法的泛化能力有所欠缺。Dalsasso等[7]利用19个卷积层对乘性噪声图像进行训练及特征处理,提出一种新的散斑抑制算法。Zhang等[8]为解决神经网络训练数据量较大的问题,通过卷积去噪自编码器(convolutioal denoising autoencoder,C-ADE)重建无斑点SAR图像。Pan等[9]利用预训练网络(FFDNet)和MuLoG算法进行SAR图像去噪。而Liu等[10]则提出一种将非下采样剪切波与CNN相结合的SAR图像去噪算法。

2) 基于直接残差学习的SAR图像去噪算法

上述算法需要对SAR图像先进行对数变换,这使得网络不能进行端对端训练,并带来一定的复杂性,因此研究人员提出了直接通过网络训练利用残差进行SAR图像去噪的思想,此类方法可以提高网络模型的运算效率,同时更方便处理。例如,Zhang等[4]提出了SID-CNN算法;受编解码网络的启发,Gu等[11]针对SAR去噪问题提出一种基于残差编解码器的去噪算法——REDNet。通过对原始噪声图像和网络学习到的噪声图像进行直接相除的ID-CNN算法[12];Zhang等[13]将7个膨胀卷积引入到一般卷积去噪网络中,提出了SAR-DRN网络。与SAR-DRN类似的网络还有Ma等[14]提出的5层膨胀卷积和残差学习构成的去噪网络,相比于SAR-DRN该网络更为简单,网络层数更浅,效果更好。Zhou等[15]提出了一种用于SAR图像降斑的端到端深度多尺度递归网络——MSRNet。2015年,用于图像分割的U-Net网络被提出[16]。Lattari等[17]依据SAR-DRN与U-Net网络结构,将两者进行结合改进,提出了一种基于对称式编解码器的U-Net残差去噪网络。由于密集连接丰富了卷积层间的信息,因此其被广泛应用到图像去噪领域[18]。例如,Gui等[19]提出一种膨胀密集连接散斑抑制网络——SAR-DDCN。

在抑制散斑的同时如何能更好地保留纹理细节是研究者一直致力于解决的问题,Gu等[20]提出了一种双分量网络以解决上述的问题,该网络训练简单,且对细节保持有一定提高。同样为应对上述问题,Vitale等[21]提出考虑空间和统计特性的代价函数,构造了10层卷积网络(KL-DNN)。随后Vitale等[22]又在KL-DNN的基础上提出了新的代价函数,效果优于KL-DNN。同年又提出了MONet[23],将17层的卷积与一个创新的多视代价函数相结合进行去噪,获得了很好的图像细节保持能力。

3) 基于注意力网络的SAR图像去噪算法

注意力网络能够区别对待图像中的信息,重点关注重要信息而忽略掉不重要信息,因此被广泛地应用于SAR图像去噪中。例如,Li等[24]将注意力应用于SAR图像去噪,提出了一种膨胀残差注意力网络——HDRNet。得益于注意力强大的特征关注能力,去噪图像在图像细节上得到一定提升。而Lei等[25]将通道注意力与多层递归块结构相结合,提出多级残差注意力网络,对真实和模拟数据进行去噪和细节保存有显著提升。此外,Liu等[26]将密集连接与双注意力相结合构建新的SAR去噪网络,在运行时间和去噪性能上达到一种平衡。

4) 基于生成对抗网络的去噪算法

生成对抗网络(generative adversarial networks,GAN)作为深度学习中非残差学习的一种模型,它主要由两部分构成:生成器和判别器[27],两者会随着网络的训练达到一种平衡。Wang等[28]首先将GAN应用于SAR图像去噪,提出了ID-GAN算法。为解决大多数滤波方法需要复杂的参数调整才能达到所需的视觉效果的问题,Gu等[29]提出基于GAN的散斑抑制网络。Liu等[30]为解决同态区域散斑噪声抑制与细节保存问题,采用GAN思想进行网络构建,生成器部分采用8个卷积层实现,判别器网络采用四个步长卷积和一个全连接层实现。

5) 基于混合模型的SAR去噪算法

为解决应用深度学习网络可能会带来的过平滑问题,Kim等[31]提出一种将静态小波变换与CNN相结合的散斑抑制算法。一些学者尝试将预训练好的网络模型直接与基于模型的方法相结合用于SAR图像去噪。Yang等[32]将DnCNN已训练好的模型迁移到SAR图像中,提出一种使用预训练模型的MuLoG-CNN去噪网络。Denis等[33]将基于块的非局部滤波和深度学习相结合进行去噪处理。

受SAR-BM3D算法中非局部滤波强大去噪能力的影响[34],Cozzolino等[35]将非局部滤波与深度学习相结合,提出一种CNN-NLM去噪算法,通过利用图像间的局部相似性评估隐藏信息,提高网络性能。该算法在图像细节保存方面具有一定优势。但在去噪性能上还存在一定不足。其原因在于缺乏可靠的参考图像。Liu等[10]通过在非下采样剪切波变换域(non-sub sample shearlet transform,NSST)应用连续循环平移算法和CNN相结合提出一种新的混合去噪算法。在轮廓线的帮助下,Liu等[36]提出CCNN去噪算法。

3.2 基于自监督学习的SAR图像去噪

自监督学习的思想非常简单,输入的是一堆无监督的数据,但通过数据本身的结构或者特性,人为构造标签出来。有了标签之后,就可以类似监督学习一样进行训练。基于自监督思想,Yuan等[37]提出一种用于SAR图像盲去噪自监督密集膨胀卷积网络——BDSS,训练过程不需要干净图像,通过优化L2损失学习噪声,其网络结构通过采用3个增强密集块,并加入膨胀卷积以扩大感受野,较好的保存了图像信息。Molini等[38]采用自监督贝叶斯去噪网络,直接对噪声图像进行训练,学习真实图像特征,然后进行测试,从而避免通过模拟噪声图像学习的不准确特征信息,产生信息丢失现象,进一步提高了真实SAR图像的去噪效果。Molini等[39]又提出盲点卷积神将网络——Speckle2Void,通过建立贝叶斯模型来描述干净的SAR图像中的散斑和像素的先验分布,文中提出该算法的非局部和局部版本,通过实验发现,该算法优于基于模型的去噪算法。在noise2noise模型基础上[40],Dalsasso等[41]通过将时间变化补偿并采用自监督损失函数,提出了一种新的去散斑网络:SAR2SAR获得了较好的去噪效果。由于自监督学习去噪算法近两年刚应用于SAR图像去噪,所以相关的算法还不够成熟,因此,也成为该方向未来发展趋势。

本文将上述所提到的SAR图像去噪算法进行分类总结,罗列出各种算法是否使用监督学习策略,算法中的核心关键词及用到的训练集汇总于表1中,便于读者更清晰快捷的了解算法相关信息。由表1可知,常用的训练数据集主要为UC Merced Land Use Dataset、UCID和BSD,而测试数据集包含两大类:一类是模拟图像,一类是真实SAR图像。另外,从表1中可知,传统的单一种类的深度学习在SAR图像去噪中已经逐渐减少,目前更多是结合多种网络结构(注意力、膨胀卷积、GAN等)或结合图像的先验知识(非局部相似性、低秩性等)进行去噪。由于训练数据集较少,因此,基于无监督深度学习的SAR图像去噪也是未来的热点研究方向。

表1 不同去噪算法

Table 1 Comparisons of different denoising approaches

算法关键词使用深度学习训练集是否有监督SAR-CNN[3],2017Log,残差学习直接未说明是REDNet[11],2017残差学习,编解码直接Berkeley segmentation dataset[44]是ID-CNN[12],2017除法残差,组合损失函数直接The Uncompressed Colour Image Da-tabase (UCID)[45], BSD-500[46], and Scraped Google Maps images[47]是ID-GAN[28],2017GAN,感知损失直接UCID, BSD-500, and Scraped Google Maps images是SAR-DRN[13],2018残差学习,膨胀卷积直接UC Merced land-use dataset[48]是SAR-DDCN[19],2018膨胀卷积,密集连接直接UC Merced land-use dataset是CNN-GFF[6],2019Log,残差学习,引导滤波直接Berkeley segmentation dataset是Ma等[14],2019残差学习,跳跃连接直接UC Merced land-use dataset是Lattari等[17],2019残差学习,U型编解码网络直接UC Merced land-use dataset是HDRANet[24],2019残差学习,注意力直接UC Merced land-use dataset是KL-DNN[21],2019损失函数直接UCID and BSD,Google Maps是BDSS[37],2019密集连接,膨胀卷积直接ILSVRC 2017 ImageNet[49]否Ravani等[42],2019UNet直接Sentinel-1否Gu等[20],2020纹理估计子网络,噪声去除子网络直接NWPU-RESISC45 dataset[50]是Vitale等[22],2020KL-DNN,新的损失函数直接UC Merced land-use dataset是MONet[23],2020三项多目标代价函数直接UC Merced land-use dataset是Liu等[30],2020GAN直接Berkeley segmentation dataset.UC Merced Land Use是

续表(表1)

算法关键词使用深度学习训练集是否有监督Molini等[38],2020自监督贝叶斯直接Berkeley Segmen-tation Dataset (BSD),Single-look TerraSAR-X否Speckle2Void[39],2021贝叶斯模型直接未说明否Lu等[43],2021Mish激活函数,残差学习直接The Spotlight MSTAR data set of ground military vehicles是SID-CNN[4],2021残差学习,区别训练直接未说明是Pan等[9],2019对数变换,MuLog,预训练CNN(FFDNet),同质区域检测器混合未说明是MSRNet[15],2019多尺度,convLSTM混合UC Merced Land Use Dataset是Denis等[33],2019非局部滤波,MuLoG框架,DnC-NN混合未说明否Cozzolino等[35],2020非局部滤波,CNN混合未说明是CCNN[36],2021Contourlet,CNN混合ISLVRC 2012[51],Waterloo Explora-tion Database[52],the UC Merced Dataset, the UCID, and scraped Google Maps images是

4 训练与测试

该部分首先对网络训练及测试的整体流程图进行描述,如图1所示。然后对实验所用数据集的数据获取方式和详细信息进行介绍,同时对网络训练过程中常用的损失函数及性能测试时常用的去噪指标进行总结。图1展示了采用监督学习进行训练及测试的一般网络结构的实现流程。具体实现步骤如下:

1) 根据所提出的网络框架设计出具体可行的网络结构,并对网络中的参数进行初步确定。

2) 训练集是从公开的数据集中选择一定量的干净图像作为标签,将训练集中未使用的图像作为网络训练过程中的测试集,并依据乘性噪声的产生方式,对其加入一定的乘性噪声得到模拟SAR图像。

3) 依据不同的侧重点,确定出网络训练过程中所需要的损失函数及优化算法。

4) 将噪声-干净图像对输入卷积神经网络中进行训练,得到一个初步处理后的去噪图像,在这期间,损失函数和优化算法会对标签和去噪图像进行比较分析,使二者尽可能的接近,即损失函数尽可能的接近于0,表明两者区别最小,模型产生最好的结果。然后保存训练好的模型,并进行测试。

5) 测试阶段,将模拟及真实的SAR图像输入到已训练好的网络模型中,得到散斑抑制后的干净图像,然后通过相应的指标进行性能测试。

图1 图像去噪流程示意图

Fig1 Model diagram with three ways to implement
supervised learning

下面将对训练及测试中用到的数据集,损失函数和评价指标进行分析。

4.1 SAR数据集

基于深度学习的SAR图像去噪需要大量的数据来训练网络,这是所有基于深度学习的方法中非常重要的一个环节。因此,SAR图像数据集的可用性亦是值得关注的。与以往合成孔径雷达数据的可使用区域受限或保密性问题导致获取受到限制不同,目前一些大型的合成孔径雷达数据集已经广泛免费提供。我们总结了基于深度学习的SAR图像去噪任务中常用的训练数据集,介绍了其主要特征及数据获取路径。

1)训练数据集:分别从以下几个常用的数据集进行描述Berkeley Segmentation Dataset:BSD数据集,也称伯克利分割数据集(berkeley segmentation dataset,BSD),于2001年由加州大学伯克利分校发布。BSDS300数据集分为包含200张图像的训练集和100张图像的测试集。

UC Merced land-use dataset:该数据集是一个可用于目标检测和图像分类研究的21类土地利用图像遥感数据集,每类含有100张图像,每张图像分辨率为256*256,共有2 100张。该数据集可从以下网址下载获取:http://weegee.vision.ucmerced.edu/datasets/landuse.html

The Uncompressed Colour Image Database (UCID):该数据集为一个彩色未压缩数据集,其中包含1 338幅干净图像,包括自然场景和室内室外的人造物体。通过以下网址下载:http://vision.doc.ntu.ac.uk/.

ISLVRC 2012:该数据集中包含训练数据、验证数据和测试数据。3组数据都包含1 000类对象的图像,总共有1 281 167张训练图像、50 000张验证图像和10万张测试图像。可由https://image-net.org/challenges/LSVRC/2012/下载。

Waterloo Exploration Databas:Ma等[52]构建了一个大型数据集,其中包含4 744幅原始干净自然图像和94 880幅受损的图像,主要包含七种类别,分别是:人、动物、植物、自然景观、城市景观、静物画和交通运输。可通过以下网址下载https://ece.uwaterloo.ca/~k29ma/exploration/

2) 真实数据集

SAR数据集的获取比较困难,一些数据集往往需要进行支付才可以获取。很多情况下,由于保密等问题,它们的访问受到了限制。为了方便读者检索和下载SAR数据集,本文于表2中列出了常用真实图像测试数据集及获取方式。

表2 SAR数据获取方式

Table 2 SAR data acquisition method

表2中给出这些数据都是真实的SAR图像数据集。这些网址也给出了数据集的描述,包括是否是星载卫星、成像的参数等。常用的数据集为Sentinel-1和TerraSar-X,它们提供了在不同的时间时刻获取相同的场景,并允许创建大型的多时间数据集。

4.2 损失函数

在深度学习中,损失函数的选择会影响网络训练的收敛速度和优化程度。通过梳理基于深度学习的SAR图像去噪方法中所用到的损失函数,我们发现大多数方法都含有一个数据保真度损失项,其大多数采用的是L1损失或L2损失。另外,在一些方法中,损失函数会包含附加项损失,一般选择总变分损失或感知损失。依赖于生成对抗网络的方法包含对抗损失。

1) L1范数损失

L1范数损失用于计算同样大小的干净参考和模型输出(估计值)之间的绝对值误差,公式如下:

(5)

在SAR图像去噪任务中,一般来讲,M表示SAR图像的干净参考,M″表示去噪后的图像,它们的大小都是W×HL1范数损失函数是非凸函数,实现次优化,与L2范数损失相比,对噪声异常值的惩罚较小。

2) L2范数损失

L2范数损失用于有监督的训练过程,利用最小二乘法旨在计算干净参考图像与估计图像之间的距离,定义为:

(6)

可以观察到,L2范数损失是一个可微的凸函数,可使网络实现全局最优,可以评价数据的变化程度。但它对噪声异常值惩罚太大,易导致网络梯度爆炸。另外,将L2作为损失函数,预测的干净图像可能会出现伪影。

3) 总变分(total variation,TV)损失

总变分在图像去噪及复原任务上有着最直接和最有效的应用。受到噪声污染的图像的总变分比无噪声图像的总变分大,因此图像噪声可能就会对网络学习的结果产生非常大的影响。因此我们需要在最优化问题的模型中添加一些正则项来保持图像的光滑性,总变分损失是常用的一种正则项,配合其他损失来约束噪声,可通过以下公式计算:

(7)

该损失在一定程度上可以最小化相邻像素值之间的绝对差异,在保持图像边缘细节的同时增强图像的平滑度。

4) 感知损失

L1L1范数损失是在像素层面对干净图像和估计图像进行约束,但真实视觉感知更依赖于图像的特征。感知损失常用于生成对抗网络GAN中,计算的是输入的噪声图像Y和干净参考图像M相对应的深层特征的之间的距离,由选取的神经网络来提取深层特征。通过最小化感知损失,使得估计的图像M″中含有更丰富的细节信息。其定义为:

(8)

式中: φ(·)表示预训练好的特征提取网络模型;k表示该网络的第k层。如在ID-GNN[28]中,作者选用预训练好的VGG16模型的ReLU7层来提取所需的特征图。

4.3 评价指标

1) 模拟SAR图像的评价指标

模拟SAR图像存在干净参考图像,一般采2个全参考指标——峰值信噪比(peak signal-to-noise ratio,PSNR)和结构相似性指数度量(structural similarity index,SSIM)评估去散斑性能和图像细节保存能力。

PNSR主要用于衡量去噪算法去除噪声的能力,PNSR值越高,表明去噪算法的散斑抑制性能越好[53]。其定义为:

(9)

式中: M表示干净参考图像; M″表示去噪后的图像。

SSIM主要用于衡量去噪算法对图像纹理结构的保持能力[54],SSIM值越接近于1,表明去噪算法去噪后图像的纹理信息越接近于参考图像。其计算公式为:

(10)

式中: μM为去噪图像M″的平均值; μM为参考图像M的平均值;σMM的标准偏差;σMM″的标准偏差;C1C2为数值较小的2个正值,用来维持稳定。

2) 真实SAR图像的评价指标

由于真实图像不存在参考图像,因此选用无参考指标——等效视数(equivalent number of looks,ENL),基于平均比的边缘保持度(edge preservation degree based on the ratio of average,EPD-ROA),散斑抑制指数(speckle suppression index,SSI),散斑抑制和平均保持指数(speckle suppression and mean preservation index,SMPI)进行评价。

ENL是去噪图像同质区域噪声抑制指标[55],ENL值越高,表明去噪算法散斑抑制效果越好。其定义为:

(11)

式中: μMσM分别表示M″同质区域的均值和标准偏差。

EPD-ROA值越接近1,表明去噪图像细节保存能力越强[56]。EPD-ROA计算公式如下:

(12)

式中:分别表示去噪图像M″在水平和垂直方向的相邻像素值; MH(i)和MV(i)分别表示参考图像M在水平和垂直方向的相邻像素值。

SSI用于测量SAR图像中噪声的强度[57],表示为:

(13)

式中: σM表示去噪图像的标准偏差; μI表示噪声图像的均值; μM表示去噪图像的均值;σI表示噪声图像的标准偏差。SSI值越小,表明去噪算法散斑噪声的抑制能力越好。

SMPI被用于同时估计散斑抑制和平均保持能力,SMPI值越小越好[58],表示为:

(14)

式中: σM表示去噪图像的标准偏差;σI表示噪声图像的标准偏差;Q=1+|μI-μM|,μI表示噪声图像的均值, μM表示去噪图像的均值。

5 实验结果与分析

为了说明基于深度学习去噪算法的去噪性能,通过对表1中基于深度学习的算法进行分析,从去噪能力强、细节保持能力强以及在两者之间最大程度实现平衡这三方面进行考虑,本文选用7种算法进行对比,在Sentinel-1数据集中选择200张图像进行测试,将其结果绘制成图2。

图2 200张Sentinel-1数据集测试结果平均值直方图

Fig.2 Average of test results of 200 sentinel-1 datasets

在视觉图展示上选择两幅真实SAR图像进行测试,其中图3(a)是L=3的FIXME图像;图4(a)是L=1的TerraSar-X图像,其为X波段,分辨率为1.10 m×1.04 m。每种算法的运行环境如下:IDCNN、SARDRN、NeighCNN[59]、CNN-GFF、CCSNet采用MATLAB(MatConvNet工具包);MRANet、MRDANet采用Python(Pytorch框架),为了方便,将测试图像命名为SAR1和SAR2,测试结果如图2和图3所示。

通过图3和图4的视觉效果可知,IDCNN、SARDRN和NeighCNN算法去噪效果较为明显,但是图像细节损失严重,重要信息被滤除;而CNN-GFF算法能够保留图像中的细节信息,但去噪能力不强;CCSNet算法算法能够在两者之间折中,但引入伪影;MRANet算法和MRDANet算法能够在去除噪声的同时保存更多图像细节信息。

图3 SAR1图像去噪结果图

Fig.3 Denoising results of SAR1 image

图4 SAR2图像去噪结果图

Fig.4 Denoising results of SAR2 image

6 结论

1) 基于深度学习的SAR图像去噪算法正在不断获得研究者的关注,在深层去噪网络架构中,采用噪声-干净图像对作为训练集的监督学习方式与传统方式的结合可提升网络的局部和全局特征提取能力,在自监督无监督等方面不断探索,提升去噪性能。

2) 基于深度学习的方法进一步探索确保去噪结果在性能和细节信息上的平衡,获得更好的视觉效果。一方面,研究者不断向无监督学习和自监督学习探索,或利用GAN中的生成器学习真实图像噪声进行模拟;另一方面,在各领域出现了许多新颖有效的网络模型,将这些网络模型应用到SAR图像去噪中,并很好地权衡去噪性能与细节保留之间的关系。

参考文献:

[1] Argenti F,Lapini A,Bianchi T,et al.A tutorial on speckle reduction in synthetic aperture radar images [J].IEEE Geoscience and Remote Sensing Magazine,2013,1(03):6-35.

[2] Moreira A.Improved multilook techniques applied to SAR and SCANSAR imagery[J].IEEE Transactions on Geoscience and Remote Sensing,1991,29(04):529-534.

[3] Chierchia G,Cozzolino D,Poggi G,et al.SAR image despeckling through convolutional neural networks[C]//2017 IEEE International Geoscience and Remote Sensing Symposium (IGARSS).IEEE,2017:5438-5441.

[4] Zhang M,Yang L,Yu D,et al.Synthetic aperture radar image despeckling with a residual learning of convolutional neural network[J].Optik,2021,228:165876.

[5] Zhang K,Zuo W,Chen Y,et al.Beyond a gaussian denoiser:Residual learning of deep cnn for image denoising[J].IEEE Transactions on Image Processing,2017,26(07):3142-3155.

[6] Liu S Q,Liu T,Gao L L,et al.Convolutional neural network and guided filtering for SAR image denoising[J].Remote Sensing,2019,11(06):702.

[7] Dalsasso E,Yang X,Denis L,et al.SAR image despeckling by deep neural networks:From a pre-trained model to an end-to-end training strategy[J].Remote Sensing,2020,12(16):2636.

[8] Zhang Q,Sun R.SAR image despeckling based on convolutional denoising autoencoder[J].arXiv preprint arXiv:2011.14627,2020.

[9] Pan T,Peng D,Yang W,et al.A filter for SAR image despeckling using pre-trained convolutional neural network model[J].Remote Sensing,2019,11(20):2379.

[10] Liu S Q,Gao L L,Lei Y,et al.SAR speckle removal using hybrid frequency modulations[J].IEEE Transactions on Geoscience and Remote Sensing,2020,59(05):3956-3966.

[11] Gu F,Zhang H,Wang C,et al.Residual encoder-decoder network introduced for multisource SAR image despeckling[C]//2017 SAR in Big Data Era:Models,Methods and Applications (BIGSARDATA).IEEE,2017:1-5.

[12] Wang P Y,Zhang H,Patel V M.SAR image despeckling using a convolutional neural network[J].IEEE Signal Processing Letters,2017,24(12):1763-1767.

[13] Zhang Q,Yuan Q,Li J,et al.Learning a dilated residual network for SAR image despeckling[J].Remote Sensing,2018,10(2):196.

[14] Ma D J,Zhang X,Tang X,et al.A CNN-based method for SAR image despeckling[C]//IGARSS 2019—2019 IEEE International Geoscience and Remote Sensing Symposium.IEEE,2019:4272-4275.

[15] Zhou Y Y,Shi J,Yang X,et al.Deep multi-scale recurrent network for synthetic aperture radar images despeckling[J].Remote Sensing,2019,11(21):2462.

[16] Ronneberger O,Fischer P,Brox T.U-net:Convolutional networks for biomedical image segmentation[C]//International Conference on Medical Image Computing and Computer-assisted Intervention.Springer,Cham,2015:234-241.

[17] Lattari F,Gonzalez Leon B,Asaro F,et al.Deep learning for SAR image despeckling[J].Remote Sensing,2019,11(13):1532.

[18] Huang G,Liu Z,Van Der Maaten L,et al.Densely connected convolutional networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2017:4700-4708.

[19] Gui Y,Xue L,Li X.SAR image despeckling using a dilated densely connected network[J].Remote Sensing Letters,2018,9(09):857-866.

[20] Gu F,Zhang H,Wang C.A two-component deep learning network for SAR image denoising[J].IEEE Access,2020,8:17792-17803.

[21] Vitale S,Ferraioli G,Pascazio V.A new ratio image based CNN algorithm for SAR despeckling[C]//IGARSS 2019—2019 IEEE International Geoscience and Remote Sensing Symposium.IEEE,2019:9494-9497.

[22] Vitale S,Ferraioli G,Pascazio V.Edge preserving CNN SAR despeckling algorithm[C]//2020 IEEE Latin American GRSS & ISPRS Remote Sensing Conference (LAGIRS).IEEE,2020:12-15.

[23] Vitale S,Ferraioli G,Pascazio V.Multi-objective CNN-based algorithm for sar despeckling[J].IEEE Transactions on Geoscience and Remote Sensing,2020,59(11):9336-9349.

[24] Li J Y,Li Y,Xiao Y,et al.HDRANet:Hybrid dilated residual attention network for SAR image despeckling[J].Remote Sensing,2019,11(24):2921.

[25] Lei Y,Liu S Q,Zhang L Y,et al.Multi-level residual attention network for speckle suppression[C]//Chinese Conference on Pattern Recognition and Computer Vision (PRCV).Springer,Cham,2021:288-299.

[26] Liu S Q,Lei Y,Zhang L Y,et al.MRDDANet:A multiscale residual dense dual attention network for SAR image denoising[J].IEEE Transactions on Geoscience and Remote Sensing,2021,60:1-13.

[27] Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial networks[J].Communications of the ACM,2020,63(11):139-144.

[28] Wang P Y,Zhang H,Patel V M.Generative adversarial network-based restoration of speckled SAR images[C]//2017 IEEE 7th International Workshop on Computational Advances in Multi-sensor Adaptive Processing (CAMSAP).IEEE,2017:1-5.

[29] Gu F,Zhang H,Wang C.A gan-based method for sar image despeckling[C]//2019 SAR in Big Data Era (BIGSARDATA).IEEE,2019:1-5.

[30] Liu R J,Li Y Y,Jiao L C.SAR image specle reduction based on a generative adversarial network[C]//2020 International Joint Conference on Neural Networks (IJCNN).IEEE,2020:1-6.

[31] Kim M,Lee J,Jeong J.A despeckling method using stationary wavelet transform and convolutional neural network[C]//2018 International Workshop on Advanced Image Technology (IWAIT).IEEE,2018:1-4.

[32] Yang X L,Denis L,Tupin F,et al.SAR image despeckling using pre-trained convolutional neural network models[C]//2019 Joint Urban Remote Sensing Event (JURSE).IEEE,2019:1-4.

[33] Denis L,Deledalle C A,Tupin F.From patches to deep learning:Combining self-similarity and neural networks for SAR image despeckling[C]//IGARSS 2019—2019 IEEE International Geoscience and Remote Sensing Symposium.IEEE,2019:5113-5116.

[34] Parrilli S,Poderico M,Angelino C V,et al.A nonlocal SAR image denoising algorithm based on LLMMSE wavelet shrinkage[J].IEEE Transactions on Geoscience and Remote Sensing,2011,50(02):606-616.

[35] Cozzolino D,Verdoliva L,Scarpa G,et al.Nonlocal CNN SAR image despeckling[J].Remote Sensing,2020,12(06):1006.

[36] Liu G,Kang H,Wang Q,et al.Contourlet-CNN for SAR image despeckling[J].Remote Sensing,2021,13(04):764.

[37] Yuan Y,Guan J,Sun J G.Blind SAR image despeckling using self-supervised dense dilated convolutional neural network[J].arXiv preprint arXiv:1908.01608,2019.

[38] Molini A B,Valsesia D,Fracastoro G,et al.Towards deep unsupervised SAR despeckling with blind-spot convolutional neural networks[C]//IGARSS 2020—2020 IEEE International Geoscience and Remote Sensing Symposium.IEEE,2020:2507-2510.

[39] Molini A B,Valsesia D,Fracastoro G,et al.Speckle2Void:Deep self-supervised SAR despeckling with blind-spot convolutional neural networks[J].IEEE Transactions on Geoscience and Remote Sensing,2021,60:1-17.

[40] Lehtinen J,Munkberg J,Hasselgren J,et al.Noise2Noise:Learning image restoration without clean data[J].arXiv preprint arXiv:1803.04189,2018.

[41] Dalsasso E,Denis L,Tupin F.SAR2SAR:A semi-supervised despeckling algorithm for SAR images[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2021,14:4321-4329.

[42] Ravani K,Saboo S,Bhatt J S.A practical approach for SAR image despeckling using deep learning[C]//IGARSS 2019—2019 IEEE International Geoscience and Remote Sensing Symposium.IEEE,2019:2957-2960.

[43] Lu L,Zhang G,Nie Y,et al.Application of improved CNN in SAR image noise reduction[J].Journal of Physics:Conference Series.IOP Publishing,2021,1792(01):012053.

[44] Martin D,Fowlkes C,Tal D,et al.A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]//Proceedings Eighth IEEE International Conference on Computer Vision.ICCV 2001.IEEE,2001,2:416-423.

[45] Schaefer G,Stich M.UCID:An uncompressed color image database[C]//Storage and Retrieval Methods and Applications for Multimedia 2004.SPIE,2003,5307:472-480.

[46] Arbelaez P,Maire M,Fowlkes C,et al.Contour detection and hierarchical image segmentation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2010,33(5):898-916.

[47] Isola P,Zhu J Y,Zhou T,et al.Image-to-image translation with conditional adversarial networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.2017:1125-1134.

[48] Yang Y,Newsam S.Bag-of-visual-words and spatial extensions for land-use classification[C]//Proceedings of the 18th Sigspatial International Conference on Advances in Geographic Information Systems.2010:270-279.

[49] Russakovsky O,Deng J,Su H,et al.Imagenet large scale visual recognition challenge[J].International Journal of Computer Vision,2015,115(03):211-252.

[50] Cheng G,Han J W,Lu X Q.Remote sensing image scene classification:Benchmark and state of the art[J].Proceedings of the IEEE,2017,105(10):1865-1883.

[51] Deng J,Dong W,Socher R,et al.Imagenet:A large-scale hierarchical image database[C]//2009 IEEE Conference on Computer Vision and Pattern Recognition.IEEE,2009:248-255.

[52] Ma K,Duanmu Z,Wu Q,et al.Waterloo exploration database:New challenges for image quality assessment models[J].IEEE Transactions on Image Processing,2016,26(2):1004-1016.

[53] Huynh-Thu Q,Ghanbari M.Scope of validity of PSNR in image/video quality assessment[J].Electronics letters,2008,44(13):800-801.

[54] Wang Z,Bovik A C,Sheikh H R,et al.Image quality assessment:from error visibility to structural similarity[J].IEEE Tansactions on Image Processing,2004,13(4):600-612.

[55] Gagnon L,Jouan A.Speckle filtering of SAR images:A comparative study between complex-wavelet-based and standard filters[C]//Wavelet Applications in Signal and Image Processing V.SPIE,1997,3169:80-91.

[56] Feng H,Hou B,Gong M.SAR image despeckling based on local homogeneous-region segmentation by using pixel-relativity measurement[J].IEEE Transactions on Geoscience and Remote Sensing,2011,49(07):2724-2737.

[57] Sheng Y W,Xia Z G.A comprehensive evaluation of filters for radar speckle suppression[C]//IGARSS’96.1996 International Geoscience and Remote Sensing Symposium.IEEE,1996,3:1559-1561.

[58] Shamsoddini A,Trinder J C,Wagner W,et al.Image texture preservation in speckle noise suppression[M].NA,2010.

[59] Ravirathinam P,Agrawal D,Ranjani J J.NeighCNN:A CNN based SAR speckle reduction using feature preserving loss function[J].arXiv Preprint arXiv:2108.11573,2021.

Review of synthetic aperture radar image denoising based on deep learning

LEI Yu1,2, LIU Shuaiqi1,2,3, ZHANG Luyao1,2, LIU Tong1,2, ZHAO Jie1,2

(1.College of Electronic and Information Engineering, Hebei University, Baoding 071002, China; 2.Machine Vision Technology Innovation Center of Hebei Province, Baoding 071002, China; 3.National Laboratory of Pattern Recognition (NLPR), Institute of Automation, Chinese Academy of Sciences, Beijing 100190, China)

Abstract: Since the conventional synthetic aperture radar (SAR) image denoising algorithms have limitations in denoising performance, detail preservation capability and running time, the deep learning approach achieves further improvement in SAR denoising tasks with its unique advantages. The imaging mechanism and model of coherent speckle noise in SAR images were introduced; the theoretical basis and advantages and disadvantages of the deep learning-based SAR image denoising algorithm were analyzed, and the specific implementation details of the network model were summarized. The SAR denoising algorithms were classified from supervised and self-supervised models. Meanwhile, the training and testing processes of the denoising algorithms were summarized, including the summary of the training and testing data, the analysis of the loss functions commonly used in the training process, and the summary of the evaluation indexes of simulated and real test data; The further research directions of SAR image scatter suppression were prospected.

Key words: synthetic aperture radar images; coherent speckle suppression; deep learning; convolutional neural networks; image denoising

doi: 10.11809/bqzbgcxb2022.11.010

收稿日期:2022-01-11;修回日期:2022-03-14

基金项目:国家自然科学基金项目(62172139);河北省自然科学基金项目(F2020201025);河北省高等学校科学技术研究青年拔尖项目(BJ2020030);河北大学校长基金项目(XZJJ201909); 河北大学研究生创新资助项目(HBU2021ss002);模式识别国家重点实验室开放课题(202200007); 广东省数字信号与图象处理技术重点实验室开放基金项目(2020GDDSIPL-04)

作者简介:雷钰(1998—),女,硕士研究生,E-mail:yulei_hbu@163.com。

通信作者:刘帅奇(1986—),男,博士,副教授,E-mail:shdkj-1918@163.com。

本文引用格式:雷钰,刘帅奇,张璐瑶,等.基于深度学习的合成孔径雷达图像去噪综述[J].兵器装备工程学报,2022,43(11):71-80.

Citation format:LEI Yu, LIU Shuaiqi, ZHANG Luyao, et al.Review of synthetic aperture radar image denoising based on deep learning[J].Journal of Ordnance Equipment Engineering,2022,43(11):71-80.

中图分类号:TJ02;TP37

文献标识码:A

文章编号:2096-2304(2022)11-0071-10

科学编辑 丁辉 博士(首都师范大学副教授)

责任编辑 唐定国