首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 20 毫秒
1.
纹理映射技术作为获取具有丰富纹理信息的真彩色点云的有效手段,正以其独特的优势广泛地应用于众多行业领域。研究了一种利用三维激光扫描仪与外置数码相机联合标定解算多张影像位姿并获取全景真彩色点云的方法。其基本思想是利用摄像机与激光扫描仪固有的相对位置姿态,通过对首张影像进行标定得到其位置姿态后,利用摄像机空间旋转的几何特性,根据首张影像的位姿获取其余影像的位姿,继而完成多张影像的纹理映射,获取全景彩色点云。对比目前主流的全景影像纹理映射算法,该算法在精度与效率上均有一定提高。对多种点云数据进行纹理映射实验,结果表明,该方法能够快速准确地获取真三维全景彩色点云,为三维精细化建模提供了数据基础。  相似文献   

2.
蒲泓亦  李锋  徐铮 《测绘通报》2023,(4):29-34+40
由于缺少位姿信息,众源空中全景影像无法在地理信息空间中精确定位定向,本文提出了基于透视变换的众源空中全景位姿解算方法。首先阐述基于透视变换的球面全景空间交会方法原理,设计了位姿解算方案;其次构建了球面全景模型,使用透视变换实现了“平-球-平”模型变换;然后依据模型变换的变形特征,设计了迭代重加权最小二乘法解算位姿参数;最后以登封市纸坊水库空中全景影像为案例,验证了本文方法的可行性和可靠性。  相似文献   

3.
吴幼丝  杨丽颖 《测绘科学》2019,44(4):110-115
针对传统影像定向方法难以适用于球形全景影像定向的问题,该文提出了一种基于运动恢复结构(SfM)算法思想的球形全景影像快速定向方法。通过避开视野盲区消除了由视野盲区特征点匹配引起的误差,并附加对极几何约束进行鲁棒估计以提高匹配精度;采用改进的EPnP算法对新添加的影像进行位姿计算,提高了新增影像的位姿计算精度和计算效率;提出了全景前方交会算法和全景光束法平差模型,并通过多种优化策略,提高了三维场景构建的精度。基于长白县街景序列影像的实验结果表明,该文所提算法能够实现多摄站球形全景影像的快速定向,并具有较好的精度水平。  相似文献   

4.
球形全景成像可以克服透视成像视场角的局限,实现场景全覆盖的三维重建和量测。本文在普通影像位姿估计的EPnP(efficient perspective-n-point)算法上进行了改进和扩展,提出了一种稳健快速的球形全景影像位姿估计算法。首先,构建球形全景影像的投影模型,将EPnP算法的平面透视成像模型扩展到球面成像模型;然后,采用基于全景球心、像点、控制点共线条件方程的改进EPnP算法求解控制点的球形全景像空间坐标;最后,利用Horn绝对定位算法直接解算全景影像位姿。与球形全景影像位姿估计的后方交会算法的对比试验结果表明,本文提出的方法无须迭代求解,更为稳健快速,即使控制点数目较少也能达到高精度,基于非严格共中心拼接的全景相机,重投影误差可控制在3.00像素左右。  相似文献   

5.
张正鹏  张强 《测绘科学》2017,(12):122-126
针对车载全景序列影像的位姿估计问题,该文提出了一种基于角元素和线元素的位姿估计优化方法。根据全景多视几何关系,建立了角元素和线元素多视约束的优化模型,并推导完成模型的位姿求解方法。然后作为初始外方位元素,加入稀疏GPS/INS的相机控制数据约束,采用全景球模型的稀疏光束法平差对位姿估计结果进一步优化。实验选择IP-S2车载移动测量系统获取的全景序列影像,对比分析单视图、全景视图的连续位姿估计、本文方法和GPS/INS控制数据。实验结果表明,该文方法可提高位姿估计的精度,并减少连续位姿估计产生的累计误差。  相似文献   

6.
闫利  索一凡  曹亮 《测绘科学》2016,41(4):113-117,123
针对激光雷达点云数据缺乏纹理信息的问题,该文提出一种基于互信息的车载激光雷达点云与全景影像配准方法。该方法使用统一的球面全景成像模型,引入互信息作为相似性测度,将车载激光雷达点云生成的深度图与信息提取后的全景影像进行配准,实现配准参数的自动、高精度解算。同时,对车载激光雷达点云与全景影像配准的精度进行评定与分析。实验结果表明,车载点云与全景影像的配准方案是可行的,具有较高的配准精度。  相似文献   

7.
针对三维激光点云数据生成360°全景深度图像存在像素分辨率不均匀的问题,提出一种顾及目标量测精度及可见度的全景深度图像生成方法,在保证全景影像表达地物的完整性的前提下提高其数据的存取精度。通过坐标转换和投影变换生成与全景影像匹配的全景深度图像;基于摄影成像原理分析摄影中心高度、深度值和像素分辨率之间的关系,得到不同深度处目标分辨率随摄影中心升高趋于一致的结论;综合分析地面目标分辨率和杆状目标尤其是树冠对树干的遮挡问题,确定特定场景下生成全景深度图像的最佳摄影中心位置并重新生成深度图像。实验分析表明,该方法能够在保证杆目标可见度的前提下提高地面目标量测精度。  相似文献   

8.
基于线特征的鱼眼图像与地面激光雷达点云配准   总被引:1,自引:0,他引:1  
地面激光扫描数据(LiDAR)与全景图像进行联合分析在虚拟场景建设、文化遗迹保护等方面有较高的应用价值。将全景图像在其视点与LiDAR点云对齐是开展两种数据联合分析的基础,但需要克服数据维度差异转换和特征匹配的困难。本文提出了基于线特征的半自动配准方法纠正图像,将鱼眼图像和LiDAR点云投影为透视成像的柱面全景图像,采用Hough变换提取图像直线特征,并利用修正迭代Hough变换方法,实现在鱼眼全景图像视点约束下与离散激光点云的三维对齐。试验表明,该方法能在较少的人工干预下实现二维到三维数据对齐。  相似文献   

9.
在移动测量系统的传感器标定时,精确解算全景相机的外方位元素是一个重要环节。针对使用全景相片来解算全景相机外方位元素的问题,介绍了理想全景相机成像模型和严格全景相机成像模型的原理。为了对这两种模型进行评价,设计了室内、室外两种情况下的两次基于全景相片的空间后方交会实验,使用最小二乘法解算了两种模型全景球坐标系的外方位元素。对两种相机成像模型解算的外方位元素进行精度比较。结果表明,理想全景相机成像模型存在系统误差,但在物距较大时,其对测量精度影响较小;而严格全景相机成像模型对系统误差进行处理,其模型更优。本结论对使用全景相片进行摄影测量计算有一定参考意义。  相似文献   

10.
针对复杂室内环境下视觉SLAM定位存在实时性差、轨迹漂移等问题,本文提出了一种基于图像特征提取方法的ORBSLAM算法。该算法在前端中提高图像特征检测与匹配的效率和精度,引入闭环检测策略优化相机位姿轨迹,提高定位精度。以不同来源图像对比分析不同特征提取算法SIFT、SURF、ORB的有效性,运用该算法估计机器人运动轨迹,与真实轨迹相对位姿误差为0.144 8 m,试验表明所提出的方法切实可行,具有较高的稳健性。  相似文献   

11.
张一  姜挺  江刚武  余岸竹  于英 《测绘学报》2019,48(6):708-717
针对现有特征法视觉SLAM只能重建稀疏点云、非关键帧对地图点深度估计无贡献等问题,本文提出一种特征法视觉SLAM逆深度滤波的三维重建方法,可利用视频序列影像实时、增量式地构建相对稠密的场景结构.具体来说,设计了一种基于运动模型的关键帧追踪流程,能够提供精确的相对位姿关系;采用一种基于概率分布的逆深度滤波器,地图点通过多帧信息累积、更新得到,而不再由两帧三角化直接获取;提出一种基于特征法与直接法的后端混合优化框架,以及基于平差约束的地图点筛选策略,可以准确、高效解算相机位姿与场景结构.试验结果表明,与现有方法相比,本文方法具有更高的计算效率和位姿估计精度,而且能够重建出全局一致的较稠密点云地图.  相似文献   

12.
粒子加速器隧道准直测量往往沿直线或环形布设控制网,利用激光跟踪仪进行测站搭接测量时,误差会沿测站前进方向不断积累。为了提高现有跟踪仪控制网测量精度,首先推导了激光跟踪仪光束法测量的误差传递路径公式,分析了未知控制点的误差来源;然后根据激光跟踪仪光束法平差原理得到4种不同方案,即无固定站心参数、固定站心姿态、固定站心位置和固定站心位姿,通过光束法平差解算并对比分析各方案。实验结果显示,4种方案解算点的绝对位置精度从高到低依次为固定站心位姿、固定站心位置、固定站心姿态和无固定站心参数。首尾闭合解算的平面位置均方根误差为0.147 mm,小于未闭合解算的0.163 mm,且在15 m×10 m×3 m的测量范围内,无固定方案平差解算的姿态和平面位置均方根误差分别为3.58 s和0.144 mm。实验结果表明,测站闭合能增强约束,固定站心位姿能有效抑制光束法测量的误差积累,从而提高整网平差解算精度。固定站心位置结果优于固定站心姿态,说明站心位置是影响激光跟踪仪平面光束法平差的重要参数。该研究可为今后高精度激光跟踪仪光束法平差方案设计提供参考。  相似文献   

13.
曾凡洋  钟若飞  宋杨  任苗 《遥感学报》2014,18(6):1230-1236
全景相机车载移动系统可以获取带有精确位置和姿态信息的序列全景影像,针对该影像数据,提出一种构建全景核线影像的方法,描述了在球面全景模型下构建全景影像之间核线几何约束的过程,并推导出具体的公式,然后在两张全景核线影像之间使用SIFT算法匹配同名点,最后根据摄影中心、像点、物点3点共线的原理,推导出全景影像的共线公式,利用前方交会的原理计算出物点的空间3维坐标。实验结果表明,本文方法可以降低全景影像匹配的难度,提高匹配点数量和精度,适用于实现基于全景影像的量测等功能。  相似文献   

14.
线阵全景相机通过线阵旋转来获取水平角可达360°场景的影像,将其应用于近景摄影测量可减少摄站数,避免影像拼接问题。分析了线阵全景相机检校的几何成像模型,推导了平差函数模型,并分别用模拟和实际全景控制场数据验证了该平差函数模型,结果表明该模型参数选择合理,正确描述了线阵全景相机的内部结构关系,是线阵全景相机的一种实用检校模型。  相似文献   

15.
朱宁宁 《测绘学报》2017,46(4):487-497
随着虚拟现实(VR)技术的兴起,全景图像得到了更为广泛的应用,目前多通过求解单应矩阵对图像进行变换,由多相机拼接获取全景图像,但该方法会破坏成像中的共线条件,使拼接后的全景图像难以精确进行摄影测量中的三维重建等工作。本文提出了一种柱面全景图像拼接方法并对其进行仿真分析,该方法基于摄影测量共线方程,设定拼接相机的数目、成像焦距、成像位置和成像姿态,模拟多拼相机的成图过程,构建从三维点云到二维图像的柱面成像方程,通过成像方程不仅可以实现各图像的全景拼接,而且可对影响全景图像拼接精度的各参数进行定量分析,试验结果表明:1本文提出的柱面成像方程和全景拼接方法可用于不同数目相机及倾斜成像下的全景拼接;2利用成像方程推导的误差方程可知,全景图像拼接的精度受焦距误差、中心误差和旋角误差的影响,其中,焦距误差可通过图像重采样的方法校正,中心误差与摄影物距密切相关,而旋角误差主要受拼接相机数目的影响。  相似文献   

16.
张静  韩晓冬  陈宜金  袁志明 《测绘科学》2006,31(3):39-40,91
本文在介绍GPS姿态测量技术原理的基础上,探讨了在近景目标三维测量系统中提高GPS测姿精度的新方法。该方法用固定长度为限制条件的条件平差解算姿态参数,并以实例验证了此方法在改善GPS测姿精度方面的有效性。  相似文献   

17.
张正鹏  江万寿  张靖 《测绘学报》2014,43(12):1266-1273
提出一种光流特征聚类的车载全景序列影像匹配方法.采用非参数化的均值漂移特征聚类思想,以SIFT多尺度特征匹配点的位置量和光流矢量,构建了影像特征空间的空域和值域;利用特征空间中对应的显著图像光流特征为聚类条件,实现了全景序列影像的匹配;最后以全景极线几何约束为条件进行粗差的剔除.通过相同、不同内点率以及不同数据的试验对比分析,本文方法在匹配正确点数和正确率方面要优于经典的Ransac法和金字塔Lucas-Kanade光流法,尤其在场景复杂造成的低内点率情况下,算法表现较为稳定,并可较好地剔除由重复纹理、运动物体、尺度变化等产生的匹配点粗差.  相似文献   

18.
具备尺度恢复的单目视觉里程计方法   总被引:1,自引:0,他引:1  
针对单目视觉存在尺度不确定性,无法准确估计移动机器人位姿的问题,提出一种具备尺度恢复的单目视觉里程计方法。通过建立局部地图解决基于参考帧/当前帧的位姿估计方式过分依赖参考帧的问题;为了提高位姿估计精度,在使用滑动窗口控制计算量的基础上建立位姿与地图3D点的图优化模型进行光束法平差;最后基于平面假设成立和相机高度已知的条件下,通过图像RoI区域的稠密匹配,建立非线性优化模型解得尺度因子,从而实现绝对尺度恢复。实验结果表明,该方法能稳定地进行位姿估计并且有效地解决了单目视觉存在的尺度不确定性问题,可用于真实三维场景中移动机器人的位姿估计。  相似文献   

19.
球面全景影像相对定向与精度验证   总被引:1,自引:1,他引:0  
谢东海  钟若飞  吴俣  符晗  黄小川  孙振兴 《测绘学报》2017,46(11):1822-1829
对传统的5点法相对定向算法的共面误差计算方法进行改进,提出了一种适合球面全景成像特点的相对定向计算流程。与传统方法相同,该算法首先计算本质矩阵,然后对本质矩阵进行奇异值分解得到旋转矩阵和平移矢量的候选解,最后利用重建的物方三维点坐标排除错误解。本文的贡献在于推导了球面全景共面条件公式,并使用点到核线平面的球面距离作为球面全景共面条件的误差项。模拟数据试验显示:当图像特征点的随机噪声在[-0.5,0.5]像素范围内时,3个姿态角的中误差约为0.1°,由相对定向恢复的相对平移量与模拟值的夹角中误差约为1.5°。使用车载全景相机配合POS获取的数据进行试验的结果显示:横滚角和俯仰角的中误差可以达到0.2°以内,航向角的中误差可以达到0.4°以内,由相对定向恢复的相对平移量与POS平移量的夹角中误差可以达到2°以内。采用本文相对定向算法的结果生成球面全景核线影像,提取影像之间同名点坐标并计算其列方向误差,结果显示核线影像同名点列坐标差的中误差在1个像素以内。  相似文献   

20.
黄明益  吴军  高炯笠 《测绘学报》2022,51(5):703-717
针对多镜头全景摄像机MPC室内标定参数输出的实际场景球面全景视频存在视差伪影问题,提出一种场景自适应的球面全景视频无缝生成方法,主要包括两方面内容:①MPC球面投影参数最优估计。以实际场景视频重叠区域同名像点为观测值,通过最小化球面投影中心到同名像素对应球面空间点的夹角建立误差方程对球面投影参数进行最小二乘估计,从而降低子相机摄影中心与球面投影中心不重合及场景深度变化对MPC球面全景视频输出质量影响。②MPC球面全景视频生成TPS模型构建。以MPC子摄像机视频像素球面重投影几何为全局变换、以视频拼接线上同名像点为控制点建立TPS模型,实现MPC各子摄像机视频到球面拼接视频的像素直接映射,并能最小化视频重叠区域像素拼接误差,仅通过拼接线附近像素简单混合即可消除视差伪影并实现平滑过渡。模拟成像及实际场景试验结果表明,结合场景内容与摄像机内、外参数,本文方法可实现MPC球面全景视频无缝生成且计算简单、高效,完全满足MPC高帧率视频输出要求,具有良好的应用价值。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号