首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对传统遥感影像超分辨率重建方法依赖同一场景多时相图像序列且需预先配准等缺点,本文提出了一种基于密集卷积神经网络的遥感影像超分辨率重建的方法。该网络直接将低分辨率遥感影像作为网络的初始输入,通过密集卷积神经网络学习影像的高阶表示,获得更具有表达能力的深层特征;同时,在网络中采用并行的1×1卷积滤波器结构,通过该结构减少模型参数;在重建网络中使用亚像素卷积可以更快地实现特征图的重建。在UCMerced_LandUse公共数据集上的实验表明:本文的网络模型提升了传统深度网络的影像重建性能,增强了重建图像的纹理细节并改善影像边缘失真,提升了重建影像的性能。  相似文献   

2.
由于遥感设备的性能限制,使得采集的遥感影像质量受到影响,低分辨率的遥感影像限制了遥感解译应用的精度。当前针对遥感影像的超分辨率重建研究仍然存在重建后的遥感影像地物全局信息和纹理细节不足的问题。因此,本文提出顾及全局特征和纹理特征的遥感影像超分辨率重建方法,该方法利用生成对抗网络的特征学习能力,并对模型全局和纹理进行增强。一方面,地物全局特征增强部分用于解决当前研究中超分辨率重建模型对低分辨率遥感影像中全局遥感地物信息没有重视和利用的问题。在生成网络中引入自注意力模块,以获取全局地物注意力图的方式将遥感影像中相距较远的地物信息作为重建过程的参考。另一方面,遥感影像纹理增强部分用于解决超分辨率重建模型中超分辨率影像纹理信息不足的问题。本文方法引入纹理损失以优化生成网络参数并增强超分辨率重建后影像中的纹理信息。另外,为避免重建结果中的“伪影”现象,研究采用权值归一化代替批量归一化方法。试验结果表明,本文方法在遥感影像超分辨率重建过程中能增强遥感地物特征,同时可以实现地物的纹理细节精细化恢复,而且超分辨率重建结果的图像质量评价指标SSIM、FSIM和PSNR值分别达到了0.756、0.595和...  相似文献   

3.
针对单帧遥感影像采取迭代反投影方法进行超分辨率重建时,重建图像的强边缘存在锯齿效应,在分析了导向滤波算法原理后,本文提出了一种将上述算法引入迭代过程来处理图像误差的方法,以进一步提升图像的高频信息,提高图像的重建质量。选取同时间不同地物的遥感影像作为实验数据,实验结果表明,本文重建的结果与双三次插值方法、边缘导向插值方法和迭代反投影方法相比,在客观评价指标上均有提高,改善了重建影像的纹理细节。本文提出的超分辨率重建方法,可以使重建影像提供更多的高频信息,具有较好的稳定性和鲁棒性。  相似文献   

4.
利用低分辨率图像生成高分辨率图像的过程称为图像超分辨率,目的是得到一张清晰的影像。随着人工智能的蓬勃发展,在遥感、辅助文本识别等诸多领域,图像超分辨率的应用愈加广泛。本文利用生成对抗网络的深度学习模型进行单图像超分重建,SRGAN模型相较于传统方法,提出了新的感知损失函数,由对抗损失和内容损失组成。对抗损失通过训练判别器网络结构区分生成图像和实际高分辨率图像,而内容损失则利用预训练的VGG19网络模型计算图像特征的感知相似度,而不是在像素空间上的相似度。试验证明,利用SRGAN获得的高分辨率图片,MOS指标高于传统方法。本文围绕SRGAN的原理、效果、应用等进行了阐述。  相似文献   

5.
深度残差网络的多光谱遥感图像显著目标检测   总被引:2,自引:2,他引:0  
本文侧重于介绍智能化摄影测量深度学习的深度残差方法。显著目标检测致力于自动检测和定位图像中人最感兴趣的目标区域。多波段遥感图像因其更加丰富的光谱信息和揭示观测目标物理属性的能力在目标检测中获得重要应用。传统的显著目标检测方法通过手工设计特征,计算图像各像素或者超像素与邻域像素或者超像素之间的对比度检测显著目标。随着深度学习的巨大发展,特别是全卷积神经网络的引入,基于深度卷积网络的显著目标检测算法取得重要进步。然而,由于数据获取和标记的困难,多波段遥感图像显著目标检测的研究依然主要采用手工设计特征。本文研究基于深度卷积神经网络的多波段遥感图像显著目标检测算法,提出一种基于深度残差网络的自上而下的多光波段遥感图像显著目标检测网络,该网络可以有效挖掘深度残差网络不同层次上的显著性特征,以端对端方式实现显著目标检测。为了应对多波段遥感图像数据量有限、无法训练深度残差网络的问题,本文提出通过浅层神经网络从RGB图像直接生成多波段遥感图像,实现光谱方向的超分辨率。在现有多波段遥感图像和可见光图像显著目标检测数据集上的试验结果超过当前最好方法10%以上,验证了本文方法的有效性。  相似文献   

6.
近年来,基于深度学习的超分辨率重建技术已经广泛应用于多时相高光谱影像、高分影像超分辨率重建等领域。多角度遥感影像之间具有丰富的互补信息,可用于超分辨率重建。针对高分辨率多角度遥感影像提出了一种基于动态上采样滤波网络的超分辨率重建方法。该方法的网络结构为端到端双路网络,其中一个分支网络通过动态上采样滤波模块来实现分辨率提升,另一个分支网络用来学习影像中的高频信息,将两个分支网络输出的结果相加即可得到最终的超分辨率重建影像。为了验证该方法的有效性,利用WorldView-2美国亚特兰大地区和巴西里约热内卢地区多角度遥感影像数据分别进行了2倍、3倍、4倍超分辨率重建模拟实验和真实实验,并进行了多组对比实验。实验结果表明,所提方法可以在顾及多角度影像角度维信息的同时有效提升目标影像空间分辨率,并且较好地保持了影像的细节信息。  相似文献   

7.
语义分割是高空间分辨率遥感图像分析和理解的核心内容之一。现有基于深度学习的语义分割网络会导致遥感图像高频信息损失,边界分割不准确。针对此问题,本文提出一种双解耦语义分割网络模型,将提取的两级特征图解耦为具有高频特性的边界特征和具有低频特性的主体特征,并将解耦后的边界和主体特征图进行融合,从而改善高分辨率遥感图像语义分割性能。进一步提出了一种顾及边界和主体的损失函数,对地物要素及其边界和主体部分进行优化学习。在ISPRS Vaihingen和Potsdam 2D高空间分辨率遥感图像数据集上进行试验,与已有的遥感图像语义分割网络模型结果比较,双解耦语义分割网络模型能有效提高地物要素分割精度。  相似文献   

8.
朱红  宋伟东  谭海  王竞雪 《测绘学报》2016,45(9):1081-1088
鉴于现有超分辨率重建方法难以突显重建影像细节信息的问题,提出多尺度细节增强的遥感影像超分辨率重建模型框架。首先,通过最小二乘滤波方法将序列影像分解成包含大尺度边缘的平滑信息和包含中小型尺度的细节信息;其次,利用插值方法得到相应的高分辨率细节信息和平滑信息,构造纹理细节增强函数,提升中小型细节的增强幅度;最终,融合细节信息和平滑信息,得到初始的超分辨率重建结果,并利用局部优化模型进一步改善重建影像质量。选取同时相和多时相遥感影像作为试验数据。试验结果表明,本文重建结果与插值方法、TV方法和MAP方法相比,在客观评价指标上均有显著提高,明显改善了重建影像的纹理细节。论文提出的多尺度细节增强的超分辨率重建方法,可以使重建影像提供更多高频细节信息,具有较好鲁棒性和普适性。  相似文献   

9.
吴从中  陈曦  詹曙 《遥感学报》2020,24(1):27-36
高分辨率遥感图像去噪对于提高后续图像分析、识别等问题的准确性具有重要意义。目前的去噪算法普遍存在去噪结果边缘信息模糊、易产生视觉伪影导致遥感信息丢失的缺点,针对以上问题本文提出了一个基于边缘增强的残差编解码去噪网络用于高分辨率遥感影像去噪。该方法首先将噪声图片通过低通滤波器分解成高频层和低频层,然后将含噪声信息的高频层输入到带残差模块的编解码网络中,通过采样运算在多尺度空间上学习残差映射生成残差图像,最后使用跳跃连接得到完整的去噪结果。其损失函数由逐像素和感知损失两部分组成,逐像素损失使用传统的均方根误差学习像素级信息,感知损失学习语义特征上的差异可以保留更多边缘信息,最终得到更清晰的结果,其中感知损失是由级联在后的语义分割网络提取的特征图定义的。本文对不同测试数据做去噪实验并与几个经典方法对比证明本文模型的去噪结果优于其他方法,不仅提高图像的峰值信噪比,得到最高的平均梯度值,还在视觉上取得了最清晰的结果。实验结果表明,本文提出的基于边缘增强的深层编解码卷积网络在去噪的同时可以改善边缘细节被模糊的问题,保留更多遥感地物信息,提高图像视觉效果。  相似文献   

10.
条件生成对抗网络在遥感图像复原中的可行性   总被引:1,自引:0,他引:1  
对于遥感图像中降质模糊的问题,经典的图像复原方法由于模糊函数难以估计等原因,复原效果较差。为了避免估计模糊函数带来的困难,通过深度学习的方法对图像进行去模糊,研究了基于条件生成对抗网络(conditional generative adversarial nets,CGAN)的图像复原方法。首先创建训练网络的训练库,然后设置网络训练的初始参数,该网络以对抗的方式来使生成模型和判别模型进行交替学习,通过不断学习降质图像和清晰图像之间的差异,并结合了对抗损失和感知损失来缩小两者之间的差异,实现图像复原。实验采用以GOPRO数据集为基础的混合模糊训练库来训练网络,并与其他方法进行了对比试验,结果表明,在图像细节和评价指标方面,CGAN具有较好的复原效果,保证了复原图像的细节信息和纹理信息,证明了该方法可以用于遥感图像的复原。  相似文献   

11.
苗馨远  张晔  张钧萍 《遥感学报》2021,25(11):2255-2269
热红外遥感图像由于其特定的成像方式,包含目标特有的发射率及温度等特征。然而,热红外遥感图像较低的空间分辨率却限制了其广泛应用。随着遥感技术的发展,同一区域获得的多源遥感图像可以提供更为完备的目标信息,使得利用多源融合技术实现热红外图像空间分辨率增强与亚像素级特征提取成为可能。为此,本文提出了一种基于多分辨率自适应低秩表达与残差信息迁移的热红外图像空间超分辨算法,该算法通过可见光与热红外图像融合的方式实现热红外图像空间特性的自适应融合增强。本文算法优势主要体现在以下几个方面:(1)基于多分辨率的超像素分割,使用超像素块代替传统的方块作为低秩恢复单元,自适应地调整单元内空间特性以保持单元内地物类型的稳定并抑制结构性噪声;(2)通过构建导向线性滤波器,在保护热红外图像光谱信息的前提下,实现可见光图像精细空间特征向热红外图像的迁移;(3)在低分辨层建立增强热红外图像残差与可见光图像残差之间关联并迁移至高分辨层,在保证超分辨图像细节信息的前提下,实现热红外图像空间超分辨。为了验证算法的有效性,本文采用2014年IGARSS数据融合竞赛提供的可见光与热红外实验数据进行实验,并与融合竞赛中表现最为优异的监督图特征融合方法进行比较,并从温度反演精度以及分类精度两个方面评价超分辨效果。实验结果表明,本文提出的方法其噪声抑制效果、空间平滑效果、边缘锐化效果更为优异,超分辨热红外图像有着更为精细的空间信息,并且对于不同区域类型均能较好的保护热红外图像光谱信息。对于不同地物类型,融合超分辨图像有较高的亚像素温度反演精度以及更高的分类精度,其温度反演误差小于1 K,总体分类精度较原热红外图像提升20%以上。  相似文献   

12.
针对目前遥感图像超分辨率重建中存在边缘细节信息重建效果不佳的问题,本文提出了—种自相似性特征和边缘特征保持分解的超分辨率重建方法。首先,为了充分利用原始低分辨率图像自身的相似性信息,通过局部自相似性重建方法得到图像的初始重建结果;然后,为进一步增加不同尺度的边缘信息,采用加权最小二乘法对初始重建结果进行多尺度边缘保持分解,并对分解的细节层进行加权线性组合;最后,通过优化计算,得到融合多尺度边缘、细节信息及局部相似性特征的超分辨率重建图像。利用多组仿真和遥感卫星图像进行对比试验。结果表明,该方法可有效提升遥感图像的边缘信息和细节信息。  相似文献   

13.
张小娟  汪西莉 《遥感学报》2020,24(9):1120-1133
遥感图像数据规模大,光照、遮挡等情况复杂,目标密集、尺度不一以及缺乏大量带标注图像用于训练深度网络等特点对遥感图像分割的完整性和正确性造成了更大的挑战。针对深度卷积网络中因多次卷积造成分辨率显著下降,像素类别预测精度降低的问题,本文在深度卷积编码—解码网络的基础上设计了一个采用完全残差连接和多尺度特征融合的端到端遥感图像分割模型。该模型具有两方面优点:首先,长距离和短距离的完全残差连接既简化了深层网络的训练,又为本层末端融入了原始输入信息,增强了特征融合。其次,不同尺度和方式的特征融合使网络能够提取丰富的上下文信息,应对目标尺度变化,提升分割性能。本文通过对ISPRS Vaihingen和Road Detection数据集做数据扩充并进行实验,分别从平均IOU、平均F1值两方面对模型进行评价。通过与目前先进的模型以及文献中的研究成果进行比较,结果表明本文所提模型优于对比模型,在两个数据集上的平均IOU分别达到了85%和84%,平均F1值分别达到了92%和93%,能够有效提高遥感图像目标分割的完整性和正确性。  相似文献   

14.
为了克服超分辨重建后的遥感图像空间分辨率的界定还采用人工对比判读存在误差和结论不统一的缺点,利用调制传递函数、奈奎斯特采样定理和人眼极限频率,建立了一种新的空间分辨率客观评价方法。利用该方法计算超分辨率重建后的遥感图像相比原始遥感图像空间分辨率的提高倍数,从而推断出重建后遥感图像的空间分辨率的大小。在数值测试中,利用不同的超分辨率方法对分级变频矩形光栅图像进行重建,采用提出的空间分辨率评价方法,与归一化均方误差、峰值信噪比、信息熵、灰度平均梯度进行客观评价的结果一致。此方法为遥感图像空间分辨率改进值的计算提供了一种可行的量化模型。  相似文献   

15.
陈毛毛  郭擎  刘明亮  李安 《遥感学报》2021,25(6):1270-1283
针对传统的遥感图像融合方法通常会引起光谱失真的问题和大多数基于深度学习的融合方法忽略充分利用每个卷积层信息的不足,本文结合密集连接卷积网络和残差网络的特性,提出了一个新的融合网络。该网络通过建立多个密集卷积块来充分利用卷积层的分级特征,同时块与块之间通过过渡层加快信息流动,从而最大程度地对特征进行极致利用并提取到丰富的特征。该网络应用残差学习拟合深层特征与浅层特征之间的残差,加快网络的收敛速度。实验中利用GaoFen-1(GF-1)和WorldView-2/3(WV-2/3)的多光谱图像MS (Multispectral Image)和全色图像PAN(Panchromatic Image)(MS与PAN的空间分辨率之比为4)评估本文提出方法的有效性。从视觉效果和定量评估结果两个方面来看,本文方法得到的融合结果要优于所对比的传统方法和深度学习方法,并且该网络具有鲁棒性,能够泛化到不需要预训练的其他卫星图像。本文方法通过特征的重复利用实现了光谱信息的高保真并提高了空间细节分辨能力,有利于遥感图像的应用研究。  相似文献   

16.
针对背景复杂的遥感图像中,舰船方向任意、密集排列造成的漏检问题,基于旋转区域检测网络,提出多尺度特征增强的遥感图像舰船目标检测算法。在特征提取阶段,利用密集连接感受野模块改进特征金字塔网络,选用不同空洞率的卷积获取多尺度感受野特征,增强高层语义信息的表达;为了抑制噪声并突出目标特征,在特征提取后设计基于注意力机制的特征融合结构,根据各层在空间上的权重值融合所有层,得到兼顾语义信息和位置信息的特征层,再对该层特征进行注意力增强,将增强后的特征融入原金字塔特征层;在分类和回归损失基础上,增加注意力损失,优化注意力网络,给予目标位置更多关注。在DOTA遥感数据集上的实验结果表明,该算法平均检测精度可以达到71.61%,优于最新的遥感图像舰船目标检测算法,有效地解决了目标漏检问题。  相似文献   

17.
王芬  郭擎  葛小青 《遥感学报》2021,25(6):1244-1256
为了充分利用多光谱图像的光谱信息和全色图像的空间信息,本文提出一种基于深度递归残差网络的遥感图像空谱融合方法。方法将残差网络和递归网络相结合,利用残差网络学习低空间分辨率多光谱图像与高空间分辨率多光谱图像之间的残差,同时结合全局残差和局部残差,加快网络的收敛速度,解决深层次网络容易出现的梯度消失和梯度爆炸问题;利用递归神经网络在不增加权重参数、减轻过拟合的情况下通过提高网络层数来提高精度,得到更好的图像融合效果。为了验证本文方法的有效性,应用遥感图像进行模拟实验、真实实验和泛化实验,实验结果与传统方法和现有深度学习方法进行对比分析。主观视觉和客观定量评价表明,本文方法很好地改善了传统方法存在的光谱失真现象,并且较现有深度学习方法学习到更深层次丰富的图像特征,更好地保留了图像的空谱信息,同时泛化实验也说明本文的网络具有较好的泛化能力。  相似文献   

18.
针对土地利用/土地覆被分类中小规模数据集无法使用深度学习方法自动分类的问题,提出了利用精简深度残差神经网络(Resnet-50)进行迁移学习的土地利用/土地覆被自动分类算法。首先,使用Sentinel-1卫星提供的遥感数据制作数据集;然后,对Resnet-50中每层的卷积模板数量进行压缩并在其后级联自适应网络得到精简残差网络;最后,利用Image Net数据集预训练精简残差网络,并将网络模型迁移到Sentinel-1数据集对网络参数进行微调,最终实现小数据集上土地利用/土地覆被的高精度自动分类。试验结果表明该算法在SAR数据集上的分类精度高达95.15%,验证了算法的可行性。  相似文献   

19.
针对传统全色锐化算法大多采用规则区域注入空间细节,而造成融合图像出现一定光谱失真和细节损失的问题。该文提出一种自适应脉冲耦合神经网络(PCNN)全色锐化算法,该算法利用混合蛙跳算法(SFLA)自适应优化PCNN迭代参数,使PCNN每次迭代均按照最小交叉熵原则进行非规则聚类分割,对获取的非规则区域自适应注入高分全色图像细节信息,以获得细节和光谱信息保持更好的融合图像。通过WorldView-2和高分一号高分辨率遥感数据集对比实验,结果表明,该自适应参数PCNN全色锐化算法在多个空间细节和光谱信息评价指标上均优于其他全色锐化算法。  相似文献   

20.
针对高空间分辨率遥感影像中的地物具有多尺度特性,以及各个尺度的对象特征对地物分类精度的影响具有较强的尺度效性,并结合面向对象影像分析方法和多尺度联合稀疏表示方法在高空间分辨率遥感影像分类中的各自优点,提出了一种面向对象的多尺度加权稀疏表示的高空间分辨率遥感影像分类算法。首先,采用多尺度分割算法获得多尺度分割结果并提取对象的多尺度特征;然后,根据影像对象的多尺度分割质量测度计算各尺度的对象权重,构建面向对象的多尺度加权联合稀疏表示模型;最后,采用2个国产GF-2高空间分辨率遥感数据集和1个高光谱-高空间分辨率航空遥感数据集(WashingtonD.C.数据)验证该算法的有效性。试验结果表明,与SVM、像素级稀疏表示、单尺度和多尺度对象级稀疏表示和深度学习等算法相比较,本文算法获得了较高的OA和Kappa分类精度,提高了各个尺度地物的分类精度,有效抑止了地物分类结果中的椒盐噪声现象,同时保持大尺度地物的区域性和小尺度地物的细节信息。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号