首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 93 毫秒
1.
一种快速角点探测算子研究   总被引:3,自引:0,他引:3  
何凯  安如  周绍光  金夏玲 《测绘学报》2005,34(3):223-227
基于SUSAN和角点几何结构分析的思想提出一种改进的快速角点探测算子.首先进行角点粗探测,然后再对粗探测的结果进行角点几何结构分析,即图像中的像元如果为角点,它必须满足角点的圈层结构.通常认为角点处各个方向上灰度差变化都较大,所以角点响应函数采用反映角点突出性的响应函数,使提取的角点含有更高的信息量.实验证明,本算法提取的角点定位准确,快速有效,可以适用于实时图像处理.  相似文献   

2.
为了解决Harris-Laplace检测算法的角点坐标偏移与像素级角点的问题,提出了基于Harris-Laplace算法的亚像素角点检测方法。该方法首先用原始图像与高斯函数进行卷积生成多尺度空间,在原始图像和多尺度空间图像上各自提取Harris-Laplace角点;然后以多尺度空间角点为中心向原始图像投影,统计原始图像上投影区域内的角点形成角点集群,并结合多尺度空间角点响应值对集群角点进行筛选;最后采用位置(坐标)加权平均法确定角点的精确坐标。实验结果表明,该方法能够提供稳定抗噪、尺度不变的亚像素精度角点。  相似文献   

3.
数字影像中角点与直线的高精度定位算子   总被引:8,自引:0,他引:8  
张剑清  张祖勋 《测绘学报》1994,23(2):98-106
本文在分析现有数定影像定位算子的基础上,提出了精确定位数字影像中角点与直线的高精度定位算子。这种算子通过精确定组成角点的两条直线,从而精确定位角点。实验表明,新的定位算子有很高的定位精度,在理想情况下,新定位算子的精度可达0.02像素,最后,客种算子被用于数字影像的相对定向,取得了令人满意的结果。  相似文献   

4.
针对Harris算法提取的角点对尺度变化较敏感,且运行速度慢的问题,该文提出了一种基于相似像素的Harris角点检测改进算法。受SUSAN算法启发,改进算法首先计算目标像素8邻域内与之相似的像素数目,并据此筛选出候选角点;然后利用候选角点的相似像素数目改进角点响应函数;最后进行局部非极大抑制确定最终角点。实验结果表明,与Harris算法相比,改进算法所提取的角点位置更加准确,重复率较高,且角点检测时间仅为原算法的26.63%。本文所提算法提高了Harris算法的角点检测效率和稳定性。  相似文献   

5.
采用传统棋盘格进行相机标定时,标定模板旋转角度对角点排序带来较大的影响,针对此设计了一种黑白环扇圆盘标定模板,并提出了与该标定模板相应的角点识别和排序算法。新的标定模板设计中心圆为1/4缺口的黑色圆,以此来消除标定模板旋转给角点排序带来的影响。通过模板区域分割算法实现标定模板的提取;创建圆形检测器剔除Harris算法提取的伪角点;利用向量积和角点几何特性完成角点排序。实验结果表明:该标定模板及其角点识别与排序算法可以有效剔除伪角点,角点排序具有良好的旋转不变性,能够实现自动相机标定。  相似文献   

6.
为满足无人机(unmanned aerial vehicle,UAV)影像角点快速检测的需要,针对Harris角点检测算法提取的角点是像素级的、且存在定位不精确和计算效率低的问题,提出了一种改进的、适用于无人机影像的角点检测算法.该算法首先根据最近邻域和对角邻域方向相似像素点特征数目初步筛选角点;然后对无人机影像进行分块处理,进行Harris自适应角点检测;最后,利用加权最小二乘欧几里德距离实现了亚像素角点的快速精确定位.实验验证了该算法的有效性和可行性,所检测的角点分布均匀,显著提高了角点检测速度.  相似文献   

7.
基于角点检测的遥感图像几何质量评价方法   总被引:2,自引:0,他引:2  
为分析图像压缩过程对遥感图像几何质量的影响,提出一种新的基于图像角点检测的图像几何质量评价方法.首先介绍经典Harris角点检测算法,然后针对Harris算法定位精度不高的缺点改进Harris算法:对角点响应函数进行曲面拟合后求拟合曲面极值点,以此作为图像亚像素级角点坐标,最后将改进的Harris算法应用到遥感图像几何...  相似文献   

8.
针对线划图影像的特点,设计了一种完整的基于结构分析的角点描述和检测算法,并能给出不同类型角点的标识码。  相似文献   

9.
针对航空和地面LiDAR数据配准中点云数据的共轭特征较少且精度差异较大的问题,提出了一种基于可移动角点的航空和地面LiDAR数据配准方法:从航空和地面LiDAR数据中分别提取相应的建筑物角点,采用6参数模型对角点进行初始配准;以地面角点为参照,利用迭代移动方法对误差较大的航空角点进行修正;最后根据移动后的航空和地面角点计算获得点云配准关系。实验结果表明,该文方法可取得较好的点云配准效果,角点修正后能有效提升点云配准精度,适合于含有角点特征的航空和地面LiDAR数据配准。  相似文献   

10.
RTK测定房屋遮挡点方法研究   总被引:6,自引:0,他引:6  
姚吉利 《测绘通报》2005,(12):41-43
介绍RTK测定地物遮挡角点的扇形交会法原理,分析角点的测定精度,用图形结构因子R分析最有利交会图形,提出实际应用上精度计算方法,最后通过试验证明该方法是可行的.  相似文献   

11.
面向影像匹配的SUSAN角点检测   总被引:1,自引:1,他引:0  
王巍  赵红蕊 《遥感学报》2011,15(5):940-956
在分析比较现有角点提取算法的基础上,将SUSAN算法用于提取高分辨率影像的角点及影像匹配。针对试验中原算法在不规则纹理区提取大量冗余角点及对强边缘敏感等问题,提出按照影像局部和整体对比度的关系自适应计算灰度差阈值,使用矩形模板从边界上确定USAN区域(核值相似区)可能的范围,再检测角点的改进思路。试验证明改进后算法提取的角点位置更为准确,有效剔除了原算法检测结果中的冗余角点,提高了影像匹配速度。  相似文献   

12.
针对如何以端到端可训练的方式重构建筑物轮廓的问题,本文提出了一种端到端多残差模块堆叠沙漏网络的建筑物轮廓重构方法。首先,采用多残差模块堆叠沙漏网络提取建筑物角点和边缘特征;其次,利用角点检测模块匹配对应角点的相对位置,以获取候选角点;然后,通过线段采样将候选角点生成候选轮廓线;最后,线验证模块利用候选线段及多残差模块堆叠沙漏网络得到特征图,并验证每个线段是否为建筑物轮廓线,以获得建筑物轮廓重构结果。试验结果表明,在SpaceNet建筑物数据集上,本文方法能检测出建筑物角点及边缘,并有效实现了以端到端可训练的方式重构建筑物轮廓。  相似文献   

13.
基于三维重建中物体截面轮廓边缘序列中相邻轮廓基本相似的事实,提出了一种物体截面轮廓线点集之间的三角划分的快速算法。该算法首先寻找轮廓线的控制点,对每两条相邻轮廓线的控制点进行配对,其次将这样两条轮廓线之间的三角划分的任务分配在多个小的曲线段对之间进行,并且由于事先的控制点匹配,在每个小的区域中就能够进行简化快速的三角划分。通过试验验证了本算法的有效性。  相似文献   

14.
通过分析遥感影像中直角型房屋特点,本文提出一种新的房屋提取方法:利用Freeman编码推导出常见直角型房屋代码,使得每一种形状房屋都具有惟一编号,且编号不随房屋大小、方位及位置改变而改变,利用Hough变换提取房屋角点并剔除伪角点,最后利用模式匹配方法获得各个角点之间的连接关系。实验结果表明该方法具有较强的抗噪性,能有效提取影像中直角型房屋。  相似文献   

15.
于莉楠  宁晓刚  王浩  刘纪平 《测绘学报》2019,48(8):1004-1013
复杂城区边界通常存在建筑物大小差异较大、周边林区高低起伏、散点建筑成片出现的情况,对城区边界提取算法造成严重干扰。针对这一问题,本文提出一种基于拓扑插值和光谱特征的高分辨率遥感影像复杂城区边界提取方法。一方面,通过对大型建筑特征点进行拓扑插值,避免由于大型建筑特征点稀疏造成的城区边界缺失;另一方面,利用植被光谱特征来滤除城区周边高低起伏的林区和散点建筑带来的冗余特征点,从而有效抑制城区误提取。通过试验和对比分析表明,本文方法在提取复杂城区边界方面,具有较好的稳健性和较高的精度。  相似文献   

16.
建筑物顶部边界的精确提取在建立数字城市等方面发挥着非常重要的作用。本文针对从遥感影像中粗提取的建筑物边界不规则的问题,结合Harris算子和Susan算子,提出了一种对粗提取后的建筑物边界进行规则化拟合的处理方法。首先对粗提取的建筑物顶部边界进行预处理以剔除噪声影响;然后分别使用Harris算法和Susan算法对预处理后的建筑物边界进行角点检测提取;最后对检测提取的边界角点进行点号排序和规则化拟合连接得到规则的建筑物边界。试验结果表明,通过该方法处理后的建筑物边界平滑且与其实际边界基本一致。  相似文献   

17.
提出了一种融合直角点和直角边两种特征的高分辨率遥感影像居民点提取方法:首先,分别检测高分辨率遥感影像的角点和直线段,通过两种特征交叉验证确定直角点和直角边,并对二者进行栅格化;然后,基于局部直角点和直角边点的密度和距离特征生成居民点指数图像;最后,通过指数图像二值化、栅格转矢量、剔除小图斑等操作确定居民点多边形。使用3景影像进行了试验。试验结果表明,本文方法提高了居民点提取精度,其正确率、完整率、质量等3个指标的平均值比已有方法的相关值分别高6.76%、10.12%、12.14%。  相似文献   

18.
快速准确地了解灾害现场状况是救灾过程中的重中之重。通常发生灾害都会使用无人机进行现场勘察,但是无人机视频难以与实际的地理场景关联起来,为此本文提出了一种移动视频与地理场景的融合方法。该方法首先采用具有仿射不变性的ASIFT算法检测特征点,将匹配后的特征点采用RANSAC算法进行迭代剔除噪点,计算视频与地理场景最优的透视变换矩阵模型参数;然后将计算得到的透视变换参数应用到视频数据,恢复视频角点坐标;最后通过内插得出所有视频帧的角点坐标,实现视频与DOM的精确融合。试验结果表明,对视频数据匹配的间隔帧越短,其整体融合精度越高,通过本文方法进行视频与地理场景融合的误差标准差低于10 m。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号