共查询到10条相似文献,搜索用时 31 毫秒
1.
提出了一种鲁棒的图像检索方法,它能够在检索大规模图像库时实现基于内容的快速匹配。匹配的索引来源于重量化HSV颜色空间得到的灰度图(Z值图)的区域特征。由于Z值图由反映色彩的聚类区域组成,并且使用矩方法来表达特征,因此该检索方法是鲁棒的,具有2维平移、尺度、旋转不变性,同时可以避免逐点匹配产生的时间耗费。 相似文献
2.
3.
4.
针对快速鲁棒特征SURF描述符匹配精度不高且对光照变化不具有鲁棒性的问题,提出利用亮度排序的快速鲁棒特征描述与匹配算法。该方法在SURF算法的基础上,对特征邻域像素的灰度值进行排序和分段。通过建立索引表对每段的像素进行表示形成描述子,再将每段的描述子串联形成特征描述符对影像进行匹配。实验表明,该算法较SURF算法匹配精度高,匹配可靠性方面提高74.7%,且对线性及非线性光照变化均具有较好的鲁棒性。 相似文献
5.
随着遥感图像数量的急剧增加,基于内容的遥感图像检索系统已成为一个研究热点。该文在以综合区域匹配算法为图像相似度度量的前提下,提出了以空间绿颜色特征值降序排序的遥感图像数据库植被区域检索方法。首先,用综合区域匹配算法对图像进行相似度度量;然后,依据这些图像的空间绿颜色特征值对图像进行降序排序,从而得到含有植被区域这一高级语义特征的检索结果。实验表明:该方法将检索查准率提高了20%,检索效率明显提高,可满足用户的需求。 相似文献
6.
7.
提出了一种改进的包模型图像检索方法,使用本底图像构建视觉词汇字典。在建库过程中,通过近似KD-Tree搜索本底图像局部不变特征与入库图像特征间的对应匹配关系,并记录该关系;图像检索时,搜索检索图像与本底图像特征的对应关系,进而计算与入库图像的关系。该方法仅保存本底图像的局部不变特征,可实现感兴趣区域的图像检索。实验结果表明,该方法在提高图像检索准确性的同时,可以减少所需存储局部不变特征的数量。 相似文献
8.
聚合CNN特征的遥感图像检索 总被引:1,自引:0,他引:1
针对高分辨率遥感图像检索中手工特征难以准确描述图像的问题,提出聚合卷积神经网络(convolutional neural network,CNN)特征的方法来改进特征表达。首先,将预训练的CNN参数迁移到遥感图像,并针对不同尺寸的输入图像,提取表达局部信息的CNN特征;然后,对该CNN特征采用池化区域尺寸不同的均值池化和视觉词袋(bag of visual words,Bo VW) 2种聚合方法,分别得到池化特征和Bo VW特征;最后,将2种聚合特征用于遥感图像检索。实验结果表明:合理的输入图像尺寸能提高聚合特征的表达能力;当池化区域为特征图的60%~80%时,绝大多数池化特征的结果优于传统均值池化方法的结果;池化特征和Bo VW特征的最优平均归一化修改检索等级值比手工特征分别降低了27. 31%和21. 51%,因此,均值池化和Bo VW方法都能有效提高遥感图像的检索性能。 相似文献
9.
针对基础矩阵计算过程存在异常数据的问题,提出了一种新的匹配点分块的基础矩阵鲁棒计算方法。该方法首先对特征点集进行分块处理,然后以点到基线的距离为最优化准则获得较为准确的特征点匹配集,最后以8点算法获得结果值。实验表明,设计的算法切实可行,对特征点错误匹配所造成的误差影响有较大的压制效果。 相似文献