摘 要: | 针对传统的高分影像建筑物提取方法存在分割精度低和分割边界模糊等问题,本文提出了一种基于U-Net3+模型的建筑地物语义分割方法。该模型以U-Net网络结构为基础,首先使用全尺度的跳跃连接将不同尺度的特征图相融合;然后通过深度监督从多尺度聚合的特征图中学习特征表达,并使用交叉熵损失函数进行训练;最后根据数据集特征,调试出不同的模型参数并以此模型进行测试,以达最佳的分割效果。试验结果表明,与U-Net和U-Net++模型相比,基于该方法的影像分割精度及地物边缘分割完整度均得到了显著提升,且当设置历元为15时,精度最高。使用该方法对高分辨率遥感影像中建筑物进行的分割试验,精度达96.62%,平均交并比(mIoU)达0.902 7,并减少了错分、漏分,同时也减少了模型参数,模型损失收敛速率快且缩短了训练周期,显著提升了建筑物提取精度。
|