首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 140 毫秒
1.
基于实例分割模型的建筑物自动提取   总被引:1,自引:0,他引:1  
传统的遥感影像目标提取方法大多采用目视解译或基于像素信息进行处理,难以适用于高分辨率影像中的复杂场景。而现有的卷积神经网络语义分割模型,由于难以达到较高的精度会出现提取目标粘连的情况。针对该问题,本文对实例分割模型Mask R-CNN进行改进,提出了一种高效、准确的高分辨率遥感影像建筑物提取算法。首先,在Mask R-CNN原有的特征提取部分每个层级的特征图后再增加一层卷积操作,以降低上采样造成的混叠效应;然后,在原有掩膜预测结构的基础上增加一个分支,改善掩膜预测的效果;最后,将改进后的网络在建筑物数据集上进行训练。结果表明,本文方法能够准确独立预测每个建筑物顶部,没有目标粘连情况,且mAP值较Mask R-CNN有所提高,能够有效实现遥感影像建筑物精细化提取。  相似文献   

2.
针对公路路面病害与背景像素对比度低导致检测困难的问题,本文提出了改进Mask R-CNN公路病害检测算法(FAC-Mask R-CNN)。首先在ResNet101基础上增加强位置信息浅层特征表达,并融合相邻特征图作为主干网络最终特征输出,同时引入CBAM模块,以减弱目标与背景像素间低对比度的影响;然后采用深度可分离卷积和空洞卷积分别代替主干网络及有效特征层输出过程应用的普通卷积,提升模型计算效率及掩码预测精度。FAC-Mask R-CNN在公路路面病害数据集(RDD)上平均精确率为89.86%,召回率为88.54%,调和均值为90%,相较于Mask R-CNN算法平均精确率提升3.09%。结果表明,FAC-Mask R-CNN能有效完成公路路面病害精细化检测与分割任务。  相似文献   

3.
针对传统舰船检测方法中流程繁琐,速度较慢且对于复杂背景区域的检测精度较低等问题,该文提出了一种改进的Faster R-CNN深度神经网络端到端自动检测方法。该方法通过数据增强技术对数据集进行扩充,使用深度残差网络ResNet替代传统平网络VGG-16对数据集进行特征提取,在区域生成网络中针对舰船目标长宽比较高的特点修改了标定框的长宽比,较好地解决了传统检测方法步骤繁琐,速度较慢等缺点,实现了对遥感影像舰船目标的自动检测。实验结果表明,改进后的Faster R-CNN检测算法能够对遥感影像中的舰船目标进行快速的精确检测,准确率可达92.3%,检测速度达到每秒5帧。即使在面对遥感影像背景复杂、目标局部遮挡问题时也能准确识别。和传统的ENVI与eCognition分类手段相比,该方法提升了目标检测效果和识别效率,Faster R-CNN检测算法相比该方法提升了检测精度。  相似文献   

4.
针对目标检测的遥感图像样本数据量匮乏问题,使用几何和色彩两种数据变化方法对数据集进行增广,并利用Faster R-CNN目标检测算法分析了数据集增广对遥感图像目标检测的影响。在不同遥感图像数据集上进行实验,结果表明,相比于原始的训练集,增广后的训练集训练出的模型在测试集上的表现更好,目标检测准确度更高,且模型的泛化性得到明显提升。  相似文献   

5.
道路裂缝的出现对道路使用寿命和人车安全带来明显影响,需及时检测出道路裂缝。针对无人机影像中裂缝目标小、图像背景复杂导致检测精度低等问题,本文以无人机采集裂缝图像作为研究数据,提出了一种改进YOLOv5模型的深度学习道路裂缝检测方法。在YOLOv5模型骨干网络中分别加入CBAM、SimAM、CA注意力机制,提高模型对裂缝的识别能力及检测精度,通过消融试验进行对比分析,同时在YOLOv5模型上融入自适应空间特征融合算法,改善裂缝特征提取能力。研究表明,改进后的YOLOv5网络模型相比于原模型,精度得到明显提高,均值平均精度(mAP)提升20.6%,在保证准确性的同时有效提高了检测精度,可为道路裂缝检测提供新的方法。  相似文献   

6.
通过拍照进行三维建模的摄影测量技术是文物数字化的重要手段,然而,在摄影测量文物三维重建过程中,文物所在的场景背景也同时参与计算和建模,需要设法删除,以获得文物单体模型。针对上述问题,本文提出一种小型文物三维模型主体对象识别方法,能够自动删除文物摄影测量三维模型的背景数据。该方法分别利用深度学习网络Mask R-CNN和改进为自动获得初值的One Cut进行文物图像前景内容识别,再融合两种方法的识别结果进行文物图像主体对象分割,最后以二维图像分割结果为依据,逐三角形识别三维模型主体对象,并运用多视角约束法优化识别精度。实验表明,本文方法能够获得小型文物单体化三维模型,无需人工干预且精度较高。  相似文献   

7.
针对Faster R-CNN模型在遥感影像中对飞机目标进行检测与识别时,易出现漏检、错检等问题,提出了一种在基于小样本飞机遥感影像数据集的改进型Faster R-CNN目标检测方法。首先对特征提取网络进行优化,然后将非顶层特征图融合顶层特征图得到边缘信息更丰富的融合特征图,利用该特征图输入RPN网络,完成目标检测模型的训练;并结合自适应阈值进行检测。以普通客机与战斗机目标为试验对象,开展飞机目标检测与识别对比分析。试验结果表明,所提出的算法在小样本情况下检测效果有明显提升。  相似文献   

8.
渗漏水是盾构隧道结构存在潜在损伤或缺陷的重要表征,快速、准确检测出渗漏水位置,对隧道安全运营和维护具有重要意义。现有的方法大多采用光学影像对隧道渗漏水进行检测,受隧道内空间和光线条件限制,难以获得高质量病害图片。因此,本文提出了一种基于激光点云数据与改进Mask RCNN相结合的渗漏水检测方法。首先对激光点云反射强度进行修正;然后生成灰度图像并建立渗漏水病害数据集;最后在Mask RCNN算法中引入空洞卷积和变形卷积,实现了隧道渗漏水病害的快速检测。利用某地铁采集的数据进行验证,结果表明,本文提出的改进Mask RCNN算法相较于原始算法和FCN算法检测精度均有明显提升,在盾构隧道渗漏水识别方面性能表现较好。  相似文献   

9.
实现复杂场景下航拍图像的端到端电力线提取是电力线无人机检测的关键。本文通过分析基于深度学习的电力线实例分割实现存在的问题,提出了一种基于改进Mask R-CNN的电力线自动提取算法。首先,根据电力线的线性特征,提出一种线性IoU计算方法,改进Mask R-CNN原有的IoU计算,提高电力线提取性能;然后,将改进后的网络在电力线数据集上进行训练,得到电力线粗提取结果;最后,通过线段编组拟合算法,对粗提取结果进行聚类拟合,以解决电力线断裂和误检的问题。试验结果表明,所提方法能从环境复杂的无人机航拍图像中较为准确地提取完整的电力线。  相似文献   

10.
遥感影像敏感目标隐藏是保证遥感资源安全共享的关键。针对传统方法存在的目标检测不完全、补全结果不可靠的问题,提出了一种基于Transformer结构的遥感影像敏感目标自动隐藏方法。首先利用以Swin Transformer为主干网络的Cascade Mask R-CNN(region-based convolutional neural network)实例分割优化模型检测敏感目标并生成掩膜区域,同时设计了RSMosaic(remote sense Mosaic)合成数据方法减少人工标注数据;然后,基于色相-饱和度-明度(hue-saturation-value, HSV)空间的阴影检测模型扩展掩膜区域;最后,引入MAE(masked autoencoders)模型实现目标背景生成。以飞机目标为例,与Partial-Connvolutios和EdgeConnec进行了对比实验。结果表明,相比传统方法,该方法在敏感目标实例分割中的边界框与像素掩膜AP值分别提升了13.2%与11.2%;在使用RSMosaic合成数据后,边界框与像素掩膜AP值可分别再提升9.39%与14.16%, 且图像修补中的平均绝对误差和最大平均差异提升80%以上,实现了结构合理、纹理清晰的敏感目标自动隐藏效果。  相似文献   

11.
遥感影像数据与地理信息系统(geographic information system,GIS)矢量数据的配准是遥感与GIS集成的基础。目前遥感影像与矢量数据的配准关键在于遥感影像特征的提取,而现有遥感影像特征提取方法存在特征提取不完整、配准失败和精度不高等问题。由此提出了一种基于Mask R-CNN(region-based convolutional neural network)的遥感影像与矢量数据配准方法,首先,利用Mask R-CNN模型提取影像的道路交叉口作为影像控制点; 然后,依据几何拓扑关系筛选矢量数据道路交叉口作为矢量控制点,再根据遥感影像与矢量数据控制点的欧氏距离确定同名控制点;最后,以同名控制点为基础实现遥感影像与矢量数据的配准。选取上海市矢量数据和高分二号影像数据进行配准实验,实验结果表明, 所提方法鲁棒性强、精度高。  相似文献   

12.
针对“异质鸿沟”问题导致的不同模态遥感信息间相似性难以度量的问题,构建并公开了一个包含4种模态信息的跨模态遥感数据集,并基于不同模态信息间潜在的语义一致性,提出了一种通用的跨模态遥感信息关联学习方法。利用深度神经网络的表征能力,分别对图像类信息和序列类信息设计各模态信息的特征学习网络,实现对不同模态高层语义信息的准确表示;设计了一个新的关联学习损失函数对模态内的语义一致性和模态间的互补性进行限制,利用知识蒸馏的思想,以先融合后迁移各模态间信息的方式增强模态间的语义相关性。在构建的数据集上进行实验,结果表明,所提方法平均精度均值达到70%,超过基准方法。  相似文献   

13.
针对多模态、多尺度的高分辨率遥感影像分割问题,提出了结合空洞卷积的FuseNet变体网络架构对常见的土地覆盖对象类别进行语义分割。首先,采用FuseNet变体网络将数字地表模型(digital surface model,DSM)图像中包含的高程信息与红绿蓝(red green blue,RGB)图像的颜色信息融合;其次,在编码器和解码器中分别使用空洞卷积来增大卷积核感受野;最后,对遥感影像逐像素分类,输出遥感影像语义分割结果。实验结果表明,所提算法在国际摄影测量与遥感学会(International Society for Photogrammetry and Remote Sensing, ISPRS)提供的Potsdam、Vaihingen数据集上的mF1得分分别达到了91.6%和90.4%,优于已有的主流算法。  相似文献   

14.
针对当前地址匹配方法严重依赖分词词典、无法有效识别地址中的地址元素及其所属类型的问题,提出了使用深度学习的中文地址解析方法,该方法能够对解析后的地址进行标准化和构成分析以改善地址匹配结果。通过对地址的不同词向量表示及不同序列标注模型的对比评估,结果表明,使用双向门递归单元和双向长短时记忆网络对中文地址解析差别较小,稀疏注意力机制有助于提高地址解析的F1值。所提出的方法在泛化能力测试集上的F1值达到了0.940,在普通测试集上的F1值达到了0.968。  相似文献   

15.
滑坡自动识别能够解决人工目视解译方法速度慢的问题,现有基于深度学习的自动识别方法多以目标检测和语义分割等单任务识别方法为主。本文基于深度学习实例分割网络探索可同时完成滑坡目标定位和语义分割的多任务识别方法。首先,基于谷歌地球影像构建了包含3822个样本的黄土滑坡样本数据集;然后,采用单阶段实例分割网络(YOLACT)构建了基于小样本学习的黄土滑坡多任务自动识别模型;最后,通过大、中、小3种比例尺度的滑坡测试样本对识别结果进行评价。试验结果表明:①滑坡目标定位框(Box)平均精确度为61.66%,滑坡语义分割掩码(Mask)平均精确度为62.0%,大比例尺测试结果中Mask交并比为0.88;②基于YOLACT构建的滑坡识别模型可同时完成滑坡目标定位和滑坡高精度掩码分割的双任务识别,为滑坡多任务自动识别及快速制图提供了技术支撑。  相似文献   

16.
遥感地物自动提取是遥感智能解译中的关键问题,对空间信息的理解和知识发现具有重要意义。近年来,使用全卷积神经网络(fully convolutional networks, FCN)从高分影像和三维激光雷达(light detection and ranging, LiDAR)数据中提取地物信息因取得了较好效果而受到广泛关注。现有FCN网络在地物提取精度和效率等方面仍存在不足,由此提出一种基于多源数据的遥感知识感知与多尺度特征融合网络(knowledge-aware and multi-scale feature fusion network, KMFNet)。在网络编码器端融入遥感知识感知模块(knowledge-aware module, KAM),高效挖掘多源遥感数据中的遥感知识信息;在网络编码器和解码器之间添加了串并联混合空洞卷积模块(series-parallel hybrid convolution module, SPHCM),提高网络对地物多尺度特征的学习能力;在解码器端使用了渐进式多层特征融合策略,细化最终的地物分类结果。基于公开的ISPRS语义分割标准数据集,在LuoJiaNET遥感智能解译开源深度学习框架上将KMFNet与当前主流方法进行了对比。实验结果表明,所提方法提取出的地物更为完整,细节更加精确。  相似文献   

17.
单木树冠提取对果树健康状态、营养成分、产量预测具有重要意义。无人机获取的高分辨率遥感影像作为低成本、低风险的数据源,为准确估计棵数、描绘树木冠层轮廓提供了新的技术手段。以往关于单木冠层轮廓提取的研究大多集中在森林或稀疏果园,以局部最大值滤波结果作为基于标记分水岭算法的种子点,该方法在密植型果园的表现并不理想。提出了一种适用于密植型果园、以区域型种子块作为标记的分水岭算法,通过最大似然法提取果树冠层生成冠层数字表面模型,利用高斯滤波结合形态学开运算及自适应阈值分割方法生成区域型种子块,并执行基于种子块标记的分水岭算法,实现密植型果园单木分割。实例研究结果表明,总体棵数查全率为95.22%,查准率为99.09%,得到单木轮廓提取总体准确率为93.45%,总体欠分割误差为5.87%,总体过分割误差为0.90%。与局部最大值种子点提取结果对比,总体准确度提高18.66%,精细树冠轮廓提取精度提高17.75%,可为地形平缓地区密植型果园单棵果树树冠提取提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号