首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 544 毫秒
1.
瞿昙寺因寺内所藏巨幅彩色壁画而闻名,但由于受到自然因素及人为因素的影响,寺内51间壁画廊中有些壁画已经发生褪色、龟裂、卷翘、起甲、颜料层脱落等病害,尤其是颜料层一旦脱落,对于不可再生的壁画来说,损失无法弥补。因此在壁画的保护修复过程中,对壁画病害的识别与评估就变得十分关键。以瞿昙寺西回廊的高光谱图像数据为研究数据,利用支持向量机(Support Vector Machine,SVM)方法对壁画病害识别分类;以此提取的病害矢量数据为基础,构建壁画病害的评估指标要素,进而提出基于多元统计回归的LS-SR-AIC评估模型,实现壁画病害严重程度的评估。实验结果表明:利用该方法颜料层脱落病害的SVM提取精度达95%以上,同时为颜料层脱落病害工程评价提供了一种新的方法指导,为文物的健康评价走向定量化评估提供参考与借鉴。  相似文献   

2.
高质量的公路网信息在区域经济发展、灾害应急管理和土地规划中发挥着重要作用。本文提出一种基于改进U-Net(u-shaped network)模型的高分影像公路线路提取方法。首先,从功能、路线设计、分级标准和构造及横断面四个方面剖析公路线路特征,厘清公路与道路的区别;然后,联合通道与空间注意力模块,提出了一种改进的U-Net网络模型;最后,以重庆市南岸区和巴南区为研究区,建立数据集并进行公路线路信息提取实验。结果表明,与已有方法相比,精确度、F1分数、IoU指标有明显提升。本文方法在高分辨率影像提取公路信息方面具有可行性与有效性。  相似文献   

3.
传统基于光谱信息的水体提取未能考虑水体形状、纹理、大小、相邻关系等问题,且存在同物异谱、异物同谱现象,导致水体提取精度较低。而传统基于分类提取水体方法设计特征过程较为繁琐,且不能挖掘深度信息特征。因此,本文提出改进的U-Net网络语义分割方法,借鉴经典U-Net网络的解编码结构对网络进行改进:① 将VGG网络用于收缩路径以提取特征;② 在扩张路径中对低维特征信息进行加强,将收缩特征金字塔上一层的特征图与下一层对应扩张路径上的特征图进行融合,以提高提取结果分割精度;③ 在分类后处理中引入条件随机场,以将分割结果精细化。在保持相同训练集、验证集和测试集的情况下,分别用SegNet、经典U-Net网络和改进的U-Net网络做对照试验。试验结果表明,改进的U-Net网络结构在IoU、精准率和Kappa系数指标上均高于SegNet和经典U-Net网络,与SegNet相比,3项指标分别提升了10.5%、12.3%和0.14,与经典U-Net网络结果相比,各个指标分别提升了5.8%、4.4%和0.05。改进的网络水体提取结果较为完整,对小目标水体能够准确提取。改进的U-Net网络能够有效地实现水体提取任务。  相似文献   

4.
近年来,城市发展快速,大量人口奔向城市工作生活,城市建筑物的数量有如雨后春笋般扩张,需要合理地规划城市土地资源,遏制违规乱建现象,因此基于高分辨率遥感影像,对建筑物进行准确提取,对城市规划和管理有着重要辅助作用。本文基于U-Net网络模型,使用美国马萨诸塞州建筑物数据集,对网络模型结构进行探究,提出了一种激活函数为ELU、“编码器-特征增强-解码器”结构的网络模型FE-Net。实验首先通过比较不同网络层数的U-Net5、U-Net6、U-Net7的建筑物提取效果,找到最佳的基础网络模型U-Net6;其次,基于该模型,加入特征增强结构得到“U-Net6+ReLU+特征增强”的网络模型;最后,考虑到ReLU容易产生神经元死亡,为优化激活函数,将激活函数替换为ELU,从而得到网络模型FE-Net(U-Net6+ELU+特征增强)。比较3个网络模型(U-Net6+ReLU、U-Net6+ReLU+特征增强、FE-Net(U-Net6+ELU+特征增强))的建筑物提取结果,表明FE-Net网络模型的建筑物提取效果最好,精度放松F1值达到97.23%,比“U-Net6+ReLU”和“U-Net6+ReLU+特征增强”2个网络模型分别高出0.36%和0.12%,且与其他具有相同数据集的研究成果比较,具有最高的提取精度,它能较好地提取出多尺度的建筑物,不仅对小尺度建筑物有较好的提取效果,而且能大致、较完整地提取出形状不规则的建筑物,有相对更少的漏检和错检,较准确地实现了端到端的建筑物提取。  相似文献   

5.
为了探讨花山崖壁画经千年风雨侵蚀而不老化脱落的原因,文章对崖画绘画颜料进行了研究,发现红色颜料层下与岩石间有一灰白色薄层,通过对其进行镜下鉴定和光谱、电子探针、X衍射、差热分析,确定灰白色层为水草酸钙石,认为前人将含草酸的植物浆汁加入到铁矿粉和动物胶或植物胶的混合浆液中作为粘合剂涂在崖壁上作画,其中的草酸根交代崖壁中的碳酸钙变成水草酸钙石紧附于崖壁面上,成为崖画颜料层长久不脱落的原因。  相似文献   

6.
自动提取城市建筑物对城市规划、防灾避险等行业应用具有重要意义,当前利用高空间分辨率遥感影像进行建筑物提取的卷积神经网络在网络结构和损失函数上都存在提升的空间。本研究提出一种卷积神经网络SE-Unet,以U-Net网络结构为基础,在编码器内使用特征压缩激活模块增加网络特征学习能力,在解码器中复用编码器中相应尺度的特征实现空间信息的恢复;并使用dice和交叉熵函数复合的损失函数进行训练,减轻了建筑物提取任务中的样本不平衡问题。实验采用了Massachusetts建筑物数据集,和SegNet、LinkNet、U-Net等模型进行对比,实验中SE-Unet在准确度、召回率、F1分数和总体精度 4项精度指标中表现最优,分别达到0.8704、0.8496、0.8599、0.9472,在测试影像中对大小各异和形状不规则的建筑物具有更好的识别效果。  相似文献   

7.
在高分辨率遥感影像中提取建筑物轮廓是地区基础建设信息统计的一项重要任务。适应性较强的深度学习方法已在建筑物提取研究中取得较大进展,受网络模型对影像特征表达的局限性,存在局部建筑轮廓边缘模糊的问题。本研究提出一种基于注意力的U型特征金字塔网络(AFP-Net)可以聚焦高分遥感影像中不同形态的建筑物结构,实现建筑物轮廓的高效提取。AFP-Net模型通过基于网格的注意力阀门Attention Gates模块抑制输入影像中的无关区域,凸出影像中建筑物的显性特征;通过特征金字塔注意力Feature Pyramid Attention模块增加高维特征图的感受野,减少采样中的细节损失。基于WHU建筑物数据集训练优化AFP-Net模型,测试结果表明AFP-Net模型能够较清晰地识别出建筑物轮廓,在预测性能上有更好的目视效果,在测试结果的总体精度和交并比上较U-Net模型分别提高0.67%和1.34%。结果表明,AFP-Net模型实现了高分遥感影像中建筑物提取的结果精度及预测性能的有效提升。  相似文献   

8.
建筑物的自动提取对城市发展与规划、防灾预警等意义重大。当前的建筑物提取研究取得了很好的成果,但现有研究多把建筑提取当成语义分割问题来处理,不能区分不同的建筑个体,且在提取精度方面仍然存在提升的空间。近年来,基于多任务学习的深度学习方法已在计算机视觉领域得到广泛应用,但其在高分辨率遥感影像自动解译任务上的应用还有待进一步发展。本研究借鉴经典的实例分割算法Mask R-CNN和语义分割算法U-Net的思想,设计了一种将语义分割模块植入实例分割框架的深度神经网络结构,利用多种任务之间的信息互补性来提升模型的泛化性能。自底向上的路径增强结构缩短了低层细节信息向上传递的路径。自适应的特征池化使得实例分割网络可以充分利用多尺度信息。在多任务训练模式下完成了对遥感影像中建筑物的自动分割,并在经典的遥感影像数据集SpaceNet上对该方法进行验证。结果表明,本文提出的基于多任务学习的建筑提取方法在巴黎数据集上建筑实例分割精度达到58.8%,在喀土穆数据集上建筑实例分割精度达到60.7%,相比Mask R-CNN和U-Net提升1%~2%。  相似文献   

9.
针对高空间分辨率遥感影像目标提取中定位精度低、边缘粗糙等问题,提出一种融合目标边缘特征与语义信息的人工坑塘提取网络模型。方法首先利用改进的U-Net语义分割网络模块来提取遥感影像中丰富的目标语义信息,然后拓展上述语义分割网络构建边缘提取子网络来获取遥感影像的多尺度边缘特征,最后借助于编码-解码子网络融合边缘特征与语义信息,实现遥感影像目标的精准提取。将该方法运用到雷州半岛复杂背景条件下人工坑塘提取实验中,实验结果中本文提出的方法在F分数以及边界F分数等评价指标上表现最优,达到97.61%与83.01%,验证了融合高层语义信息结合低层的边缘特征在提升遥感目标提取精确度上的有效性。  相似文献   

10.
针对目前DEM完整性认证的需求,以及相关认证方法的欠缺,基于脆弱水印技术提出了一种充分顾及DEM地形特征的完整性认证算法.本文对DEM数据进行特征分析,进而提出与其相适应的脆弱水印技术的特殊要求.为了减少水印嵌入对载体数据的影响,在脆弱水印嵌入过程中,首先,提取DEM数据特征线,并依此将数据分为特征区域和非特征区域2部分;然后,根据特征区域的栅格数和水印序列段生成脆弱水印,并以LSB位平面替换的方法,将水印信息嵌入到非特征区域部分.在完整性认证过程中,同样提取DEM数据的特征区域,将重新生成的水印信息与提取的水印信息进行对比,从而判断数据的完整性.算法实验结果表明,其能有效认证DEM数据的完整性,对数据影响较小,且算法安全性和适用性较强.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号