共查询到16条相似文献,搜索用时 62 毫秒
1.
2.
3.
卷积神经网络在大规模图像分类中的应用 总被引:2,自引:0,他引:2
针对大规模无序图像分类处理中成对图像的匹配和几何验证的计算量大的问题,该文通过研究和学习机器学习及图像识别领域先进的方法,提出了一种基于孪生神经网络的大规模图像有序化方法。该算法主要是:通过抽取已训练好的VGG19的网络模型的卷积层作为图像的特征,将提出的特征分别加权后,连接起来,再次卷积和池化,利用响应函数判定图像之间连通性,实现对输入图像对连通性判定。经实验证明,该算法可有效地识别具有场景重叠的图像对,效率和精度上也有所提高,无须执行详尽的推定匹配和几何验证,适用于运动恢复结构,图像连接等各种场景。 相似文献
4.
卷积神经网络在高分遥感影像分类中的应用 总被引:8,自引:0,他引:8
针对目前应用于高分辨率遥感影像分类的常用算法,其精度已无法满足大数据环境下的分类要求的问题,该文提出了卷积神经网络分类算法。卷积神经网络模型降低了因图像平移、比例缩放、倾斜或者共他形式的变形而引起的误差。在大数据环境下,采用卷积神经网络算法对高分辨率遥感影像进行分类,避免了特征提取和分类过程中数据重建的复杂度,提高了分类精度。通过实验比对分析,证明了卷积神经网络在高分辨率遥感影像分类中的可行性及精度优势,对遥感图像处理领域等相关工作提供了参考价值。 相似文献
5.
基于卷积神经网络的高光谱图像分类是当前的研究热点,先后发展了空洞卷积、可形变卷积等先进模型。然而,现有可形变卷积只在空间维偏移,忽略了高光谱图像光谱之间的差异信息。为此,本文将可形变卷积从空间维扩展到光谱维,设计了光谱可形变卷积,提出了光谱可形变卷积网络SDCNN (Spectral Deformable Convolutional Neural Network)。首先,利用全连接层学习光谱可形变卷积的偏移量,采用线性差值对图像光谱维进行特征校准;其次,采用多层1×1卷积进行光谱维特征聚合;最后,使用三维卷积层提取光谱—空间联合特征。不同于空间可形变卷积,光谱可形变卷积只在光谱维上进行偏移,可以为不同类别选择更合适的特征波段,提升模型的判别性。在国际通用测试数据Indian Pines、University of Pavia以及University of Houston上进行了实验,结果表明:本文提出的SDCNN方法优于其他深度学习方法,在相同样本条件下取得了更高的分类精度,总体精度达到了98.86%(Indian Pines,10%/类)、99.81%(University of P... 相似文献
6.
GPS坐标转换方法对于GPS空间定位系统至关重要。目前已有很多方法被提出用于转换GPS坐标,但效果并不是很显著。究其原因,是因为大多数都存在模型误差和投影误差。针对目前方法的不足,本文利用深度学习对非结构化数据处理的优势,提出了一种基于卷积神经网络(CNN)的GPS坐标转换方法。该方法将GPS数据转化为非结构化图片数据,以其作为CNN的输入层来训练GPS坐标转换模型,这样能够最小化满足对数据的预处理要求,无监督地从数据中学习出有效特征。试验结果表明,该方法与传统坐标转换方法相比,具有更高的转换精度。 相似文献
7.
如何提升网络模型对时域信息的理解能力,是基于3D卷积神经网络视频行人动作分类方法需要解决的问题之一.提出一种主导层优化模块,在网络训练过程中,利用当前时域动态信息学习能力最强的卷积层作为主导层来引导网络权重参数的更新,使各卷积层对动态信息的学习能力逐渐增强,从而改进卷积神经网络模型对时域动态信息的理解能力.仿真结果显示... 相似文献
8.
遥感图像应用发展对图像质量的要求越来越高,不同质量的遥感图像往往需要不同的处理方法和参数。通过遥感图像质量等级分类研究,不仅能够为遥感图像的处理提供先验信息,还能够对遥感图像的客观质量评价和传感器的成像效果进行评估。为了克服现有的遥感图像质量等级分类方法计算参数获取困难、等级数量少的缺点,利用深度学习方法的分类机能,通过改进特征提取网络和等级分类设计,建立了一种基于深度卷积神经网络的遥感图像质量等级分类模型。通过质量等级分类预处理后,利用经典的深度学习方法进行目标检测实验。结果表明,所提方法在西北工业大学遥感图像数据集上质量等级分类的准确率、召回率、精确率和F1最高能达到0.976、0.972、0.974和0.973,优于传统算法。利用卷积神经网络实现遥感图像质量等级分类,既拓展了深度学习的应用领域,又为遥感图像质量评估提供了一个新方法。 相似文献
9.
利用Landsat8遥感卫星影像数据制作影像融合数据集,提出了一种双通道融合网络,并利用结果影像的质量指数对网络融合性能进行评估,分析与双三次卷积插值和GS影像融合方法的差异。结果表明,该网络加强了对高频空间信息的提取,在更高效提取空间特征的同时,减弱了融合过程中对多光谱影像光谱特征的影响,从而提高了融合影像的综合影像质量(QNR=0.885 2)。 相似文献
10.
11.
12.
13.
Classification of very high resolution imagery (VHRI) is challenging due to the difficulty in mining complex spatial and spectral patterns from rich image details. Various object-based Convolutional Neural Networks (OCNN) for VHRI classification have been proposed to overcome the drawbacks of the redundant pixel-wise CNNs, owing to their low computational cost and fine contour-preserving. However, classification performance of OCNN is still limited by geometric distortions, insufficient feature representation, and lack of contextual guidance. In this paper, an innovative multi-level context-guided classification method with the OCNN (MLCG-OCNN) is proposed. A feature-fusing OCNN, including the object contour-preserving mask strategy with the supplement of object deformation coefficient, is developed for accurate object discrimination by learning simultaneously high-level features from independent spectral patterns, geometric characteristics, and object-level contextual information. Then pixel-level contextual guidance is used to further improve the per-object classification results. The MLCG-OCNN method is intentionally tested on two validated small image datasets with limited training samples, to assess the performance in applications of land cover classification where a trade-off between time-consumption of sample training and overall accuracy needs to be found, as it is very common in the practice. Compared with traditional benchmark methods including the patch-based per-pixel CNN (PBPP), the patch-based per-object CNN (PBPO), the pixel-wise CNN with object segmentation refinement (PO), semantic segmentation U-Net (U-NET), and DeepLabV3+(DLV3+), MLCG-OCNN method achieves remarkable classification performance (> 80 %). Compared with the state-of-the-art architecture DeepLabV3+, the MLCG-OCNN method demonstrates high computational efficiency for VHRI classification (4–5 times faster). 相似文献
14.
15.
16.
多模态遥感影像间(光学、红外、SAR等)存在显著的非线性辐射差异,传统方法难以有效地提取影像间的共有特征,匹配效果不佳.鉴于此,本文将深度学习方法引入影像匹配中,提出了一种基于Siamese网络提取多模态影像共有特征的匹配方法.首先通过去除Siamese网络中的池化层和抽取特征来优化该网络,保持特征信息的完整性和位置精度,使其可有效地提取多模态影像间的共有特征,然后采用模板匹配策略,实现多模态遥感影像高精度匹配.通过利用多组多模态遥感影像进行试验,结果表明,本文方法的匹配正确率和匹配精度都优于传统的模板匹配方法. 相似文献