共查询到20条相似文献,搜索用时 0 毫秒
1.
2.
3.
为利用高分辨率遥感影像实现高精度的飞机目标变化检测,提出了一种自适应的多特征融合变化检测与深度学习相结合的方法。首先,通过加权迭代的多元变化检测法获取变化强度图,并结合自适应的直方图统计法自动获取显著的变化与不变化样本;然后,提取多时相影像的光谱、边缘和纹理特征,完成多特征融合的变化检测,并通过形态学处理得到变化图斑;最后,利用训练的NIN(Network in Network)结构的卷积神经网络飞机识别模型,完成变化图斑的类型判别,实现变化飞机的检测。实验结果表明,本文方法在两组数据的正确率分别达到100%和91.89%,均优于对比方法,能实现准确可靠的飞机目标变化检测。 相似文献
4.
王晓雯戴晨光张振超季虹良 《测绘与空间地理信息》2023,(5):70-73
针对遥感影像变化检测问题,提出了一种孪生高分辨率卷积神经网络模型。该模型首先基于孪生网络模型提取不同时相遥感影像的特征,然后将特征拼接后输入到嵌套U形网络中输出变化检测区域。为了提升变化检测效果,进一步设计了高分辨率卷积神经网络用于提取不同时相遥感影像的特征,以充分利用不同分辨率的特征来提升变化检测效果。在LEVIR-CD变化检测数据集上的大量实验表明,所提出方法能够比对比方法获得更高的变化检测精度。 相似文献
5.
6.
针对同一地区不同时期的全色高分辨遥感影像,提出一种基于影像融合的变化检测算法。首先采用基于匹配点的三角网校正方法对两景影像进行几何校正,然后选用基于迭代多元变化检测(IR-MAD)的相对辐射校正方法进行辐射一致性处理,接着对经几何一致性处理、辐射一致性处理后两张影像进行显著性融合,采用Mean-Shift分割算法对融合影像进行分割,选用方向梯度直方图(HOG)特征获取影像纹理强度图,最后通过比较分割块纹理变化获得变化检测结果。以Toposys激光雷达系统搭载相机拍摄的全色影像对该算法进行了检验,并使用单一时期影像为分割对象进行对比实验结果。实验结果表明,以融合影像为分割对象的结果远优于以单一时期影像为分割对象的变化检测结果,极大地减少了误检和漏检,在城市、郊区等地区人工地物变化监测中有一定的应用价值。 相似文献
7.
针对从多时相高分辨率遥感影像上做建筑物变化检测出现的细节特征丢失、变化检测结果模糊的问题,该文提出了一种基于多尺度特征孪生神经网络的遥感影像建筑物变化检测算法。以孪生神经网络为基础网络,将Inception v2结构加入网络特征提取层中,获得遥感影像多尺度特征,并对其进行多特征融合,更好地还原建筑目标的细节信息。与全卷积孪生神经网络网络相比,在WHU和LEVIR-CD建筑变化数据集下的实验结果表明,overall accuracy、F1-score和Kappa系数指标都有所提高,本文的多尺度孪生神经网络方法更利于建筑物变化检测,并获得了良好的测试结果。 相似文献
8.
提出一种基于堆叠降噪自编码器的影像特征融合变化检测方法.首先在影像分割对象的像素级特征和对象级特征分析、设计与提取基础上,通过像素级特征主成分分析与特征优选处理算法,实现遥感影像多类型特征融合并构建分割对象的多维特征向量;其次利用堆叠降噪自编码器的高维复杂数据处理能力,实现遥感影像多维融合特征的变化检测.实验结果表明,... 相似文献
9.
10.
针对高分辨率遥感影像变化检测存在漏检和检测边界粗糙的问题,提出一种基于UNet++和注意力机制的高分辨率遥感影像变化检测算法.该算法采用UNet++网络作为基础网络提取特征,并在基本卷积单元中引入注意力机制突出重要特征,由此完成遥感影像端到端的变化检测.在高分辨率卫星影像变化检测数据集中进行了验证,相比于经典语义分割网... 相似文献
11.
提出了一种以证据理论综合利用图像多种特征的变化检测方法。方法利用滑动窗口计算两时相图像3种特征的结构相似度, 以之构建D-S证据理论的基本概率赋值函数并进行证据合成, 通过规则判定得到图像变化区域。通过对不同试验区、不同证据组合方式以及方法间的比较实验表明, 相对单一特征检测方法有效地提高了检测的精度。此外, 由于采用统计而非原始图像特征度量特征相似性, 方法具有对辐射、几何配准精度要求较低等优点。 相似文献
12.
13.
卷积神经网络在高分遥感影像分类中的应用 总被引:8,自引:0,他引:8
针对目前应用于高分辨率遥感影像分类的常用算法,其精度已无法满足大数据环境下的分类要求的问题,该文提出了卷积神经网络分类算法。卷积神经网络模型降低了因图像平移、比例缩放、倾斜或者共他形式的变形而引起的误差。在大数据环境下,采用卷积神经网络算法对高分辨率遥感影像进行分类,避免了特征提取和分类过程中数据重建的复杂度,提高了分类精度。通过实验比对分析,证明了卷积神经网络在高分辨率遥感影像分类中的可行性及精度优势,对遥感图像处理领域等相关工作提供了参考价值。 相似文献
14.
建筑物规模及其分布是衡量一个地区经济社会发展状况的关键指标,因此研究基于遥感影像的建筑物提取具有重要意义。现有神经网络方法在建筑物提取的完整度、边缘精确度等方面仍存在不足,由此提出一种基于高分遥感影像的多层次特征融合网络(multi-level feature fusion network,MFFNet)。首先,利用边缘检测算子提升网络对建筑物边界的识别能力,同时借助多路径卷积融合模块多个维度提取建筑物特征,并引入大感受野卷积模块解决感受野大小对特征提取的限制问题;然后,对提取的特征进行融合,利用卷积注意力模块进行压缩,经金字塔池化进一步挖掘全局特征,从而实现建筑物的高精度提取。并与当前主流的UNet、PSPNet(pyramid scene parsing network)、多路径特征融合网络(multi attending path neural network, MAPNet)和MDNNet(multiscale-feature fusion deep neural networks with dilated convolution)方法进行对比,使用亚米级的武汉大学航空影像数据... 相似文献
15.
针对传统高分辨率遥感影像场景变化检测流程复杂且严重依赖分类结果的问题,本文提出了一种顾及场景全局与局部相似性的变化检测方法。首先,将同一区域两个时相的遥感影像裁切成固定尺寸的图像块,构造场景对图像库,并划分为训练集和测试集;其次,构建融合场景全局与局部相似性的双分支卷积神经网络,实现场景相似度学习;然后,利用训练的相似度学习网络提取训练集场景相似度,并通过阈值遍历的方法得到最佳的相似度阈值;最后,基于相似度阈值将测试集场景对划分为变化场景和未变化场景,得到最终的变化检测结果。试验结果表明,本文方法的总体精度为0.94,Kappa系数为0.88,优于传统的分类后变化检测方法,是一种简单有效的场景变化检测方法。 相似文献
16.
17.
基于融合的高分辨率遥感影像变化检测 总被引:2,自引:0,他引:2
提出一种融合分类后比较法和差异影像法的多时相高分辨率遥感影像变化检测方法.以相关系数为理论基础,通过分析差异影像直方图,确定未发生变化的区域,保证两个时相间样本的一致性.分类后比较法能够提供变化类型信息,差异影像法能够有效检测变化区域,二者的有效融合能够产生一种精确且有变化类型信息的变化检测方法.针对高分辨率遥感影像,以图斑为基本分析单元,结合差异影像法和支持向量机分类后比较法进行实验,结果表明差异影像的引入能够有效去除分类后比较法产生的伪变化信息,支持向量机分类后比较法能消除因成像条件差异而产生的伪变化信息,两种变化检测结果的有效结合能够提高变化检测结果精度,准确反映变化类型. 相似文献
18.
建筑物变化检测在城市环境监测、土地规划管理和违章违规建筑识别等应用中具有重要作用。针对传统孪生神经网络在影像变化检测中存在的检测边界与实际边界吻合度低的问题,本文结合面向对象图像分析技术,提出一种基于面向对象孪生神经网络(Obj-SiamNet)的高分辨率遥感影像变化检测方法,利用模糊集理论自动融合多尺度变化检测结果,并通过生成对抗网络实现训练样本迁移。该方法应用在高分二号和高分七号高分辨率卫星影像中,并与基于时空自注意力的变化检测模型(STANet)、视觉变化检测网络(ChangeNet)和孪生UNet神经网络模型(Siam-NestedUNet)进行比较。结果表明:(1)融合面向对象多尺度分割的检测结果较单一尺度分割的检测结果,召回率最高提升32%,F1指数最高提升25%,全局总体误差(GTC)最高降低7%;(2)在样本数量有限的情况下,通过生成对抗网络进行样本迁移,与未使用样本迁移前的检测结果相比,召回率最高提升16%,F1指数最高提升14%,GTC降低了9%;(3) Obj-SiamNet方法较其他变化检测方法,整体检测精度得到提升,F1指数最高提升23%,GTC最高降低9%。... 相似文献
19.
针对高分辨率遥感影像变化检测中存在的变化像素与未变化像素边界难以准确区分以及变化小、目标检测中容易出现漏检等问题,本文提出一种联合密集连接与注意力的孪生网络(CDASNet)。该网络采用孪生网络的输入方式,并在编码阶段利用残差连接单元以及密集连接的方式增强对原始影像底层特征的提取,同时在解码阶段引入注意力模块为不同层次的特征图赋予新权重来关注变化信息,进一步利用跳跃连接将编码阶段的浅层特征和解码阶段的深层特征进行融合,最终经过上采样恢复原始影像分辨率得到变化检测结果。将本文方法应用在LEVIR-CD数据集和CDD数据集中进行实验,结果表明,本文提出的方法在精度和召回率上都优于FC-Siam-conv、FC-Siam-diff、DSAMNet、SUN-CD 4种方法。 相似文献