共查询到18条相似文献,搜索用时 140 毫秒
1.
2.
实景三维模型为数字孪生提供了统一的数字空间底座。在城市场景中,贴近地面及在空中视角下被遮挡的地物是实景三维重建的难点。针对城市复杂空间环境和无人机飞行局限的问题,本文基于倾斜摄影与空地一体融合建模的基础理论,考虑POS信息对空地一体空三融合的影响,提出了一种顾及地面POS信息的城市实景三维重建方法,并使用此方法对佛山市历史文化街区进行了精细化建模。试验表明,与常规方法相比,该方法的模型效果好、效率高,对实景三维产品的生产与空间数据多尺度表达具有重要意义,可为数字孪生应用提供更精细的地理场景表现形式。 相似文献
3.
快速准确地了解灾害现场状况是救灾过程中的重中之重。通常发生灾害都会使用无人机进行现场勘察,但是无人机视频难以与实际的地理场景关联起来,为此本文提出了一种移动视频与地理场景的融合方法。该方法首先采用具有仿射不变性的ASIFT算法检测特征点,将匹配后的特征点采用RANSAC算法进行迭代剔除噪点,计算视频与地理场景最优的透视变换矩阵模型参数;然后将计算得到的透视变换参数应用到视频数据,恢复视频角点坐标;最后通过内插得出所有视频帧的角点坐标,实现视频与DOM的精确融合。试验结果表明,对视频数据匹配的间隔帧越短,其整体融合精度越高,通过本文方法进行视频与地理场景融合的误差标准差低于10 m。 相似文献
4.
视频监控在安防领域的应用日益广泛,但传统的分镜头监控模式具有画面相互孤立、缺乏关联性的应用局限。针对这一问题本文分析了实时监控视频在三维场景中融合展示的难点问题,设计了基于三维GIS的实景融合系统。系统通过视觉特征匹配计算视频投射视角,针对球机设备研究了虚实场景视频联动投射的方法,并通过服务化配置的方式进行数据的加载。试验结果表明该系统在实景融合展示上效果优异,一定程度上提升了多路实时视频集成在三维场景中的展示性能,可以广泛应用于强视频、强GIS业务的公安和智慧城市领域。 相似文献
5.
倾斜三维实景模型以其高空间精度、高分辨率、真纹理的优势在各行各业尤其是数字城市的建设中应用广泛;BIM技术包含丰富的建筑信息,是建筑管理功能的集大成者。本文基于倾斜摄影测量技术,采用飞马D2000无人机获取测区影像并构建三维实景模型,采用飞马SLAM100手持激光扫描仪获取目标建筑的室内点云数据,并结合BIM技术构建室内BIM模型,选用易智瑞GeoScene Pro平台,实现模型的融合及室内外一体化场景的创建、模型属性查询及管理分析应用,以期为实景三维建设的相关应用提供借鉴。 相似文献
6.
从实景三维建模到数字孪生建模是国家数字经济和智慧社会建设与发展的基本需求。本文探讨了实景三维建模和数字孪生建模的关键技术内涵,介绍了数字乡村、未来社区和智能铁路等典型应用场景。广域范围实景三维建模在低成本高效数据采集和智能化自动化三维精细建模与动态更新方面面临挑战,城市级或重大工程级的数字孪生建模在全要素整体性的表征数据与机理模型集成表达方面还存在关键技术瓶颈。测绘技术亟须多学科交叉融合创新,突破天空地有机协同实时动态获取多细节层级实景三维数据、智能化处理多专业多尺度多模态时空数据、不完备数据条件下复杂场景的三维实体化精细建模、表征数据与机理模型结合的全生命周期数字孪生模型动态构建等核心关键技术,形成通用地理空间智能,实现测绘技术的高质量发展和对经济社会发展不可替代的更有力的基础支撑。 相似文献
7.
传统数字正射影像图(DOM)采用微分纠正方法消除相机倾斜与地形起伏所带来的投影误差,但会产生双重投影现象. 真数字正射影像(TDOM)可有效解决DOM的双重投影问题. 文中提出一种基于无人机影像的实景三维模型TDOM制作方法, 首先通过无人机挂载五镜头相机获取航空摄影测量影像并生成实景三维模型;然后采集实景三维模型建筑物顶部轮廓边界线,并构建其三维体模型;最后基于建筑物顶部轮廓边界线三维体模型进行遮蔽检测和遮蔽补偿生成TDOM. 以云南师范大学呈贡校区无人机影像实验数据验证了本文方法,实验表明本文的方法可作为一种生成高质量的TDOM方法. 相似文献
8.
9.
10.
刘飞鹏 《测绘与空间地理信息》2024,(3):29-31+35
针对消费型无人机倾斜摄影测量技术获取河道大区域复杂地形多视影像存在一定局限性,导致河道实景三维模型存在空洞与缺失问题,提出消费型无人机在河道精细化三维构建中的应用方法。通过不同航拍方式获取目标区域详细的多视影像数据,结合多种成熟软件进行河道区域精细化建模,有效地解决三维模型存在空洞与缺失问题,获取了高精度、精细化实景三维模型,为大区域、复杂情况的河道精细化建模提供一种思路。 相似文献
11.
Shunli Wang Qingwu Hu Pengcheng Zhao Honggang Yang Xuan Wu Mingyao Ai Xujie Zhang 《Transactions in GIS》2023,27(1):198-223
3D real scenes are a digital virtual space that represents and portrays the real world in a photorealistic, three-dimensional, and sequential manner. Existing methods for constructing and updating 3D models, such as oblique photography and laser scanning, are difficult to meet the demand of perceiving the real world intuitively, dynamically, and in real time. In recent years, the method of integrating rapidly rising video data and 3D models has become increasingly popular. Compared with existing methods, it enhances the real-time perception of 3D scenes by taking advantage of the real-time character of videos and the intuitive character of 3D models. In this article, we propose a real-time fusion method of multiple videos and 3D real scenes based on optimal viewpoint selection. To begin, 3D reconstruction and video camera calibration were used to prepare the basic data for the fusion of videos and 3D model. Second, a visible-surface detection-based video space restoration method was provided, and the overlapping region between multiple videos was determined. Third, to split the overlapping region into the corresponding camera spaces, a segmentation method based on optimal viewpoint selection was given. Finally, the 2D videos were dynamically fitted to the 3D model using the dynamic texture mapping method, while accomplishing the fusing and rendering of the 3D real scene. After experimental verification, the overall effect of the multiple videos and 3D real scene fusion system implemented using the method proposed in this article is better, while the algorithm is less time-consuming and efficient in rendering. 相似文献
12.
《International Journal of Digital Earth》2013,6(12):1177-1196
ABSTRACTAn Augmented virtual environment (AVE) is concerned with the fusion of real-time video with 3D models or scenes so as to augment the virtual environment. In this paper, a new approach to establish an AVE with a wide field of view is proposed, including real-time video projection, multiple video texture fusion and 3D visualization of moving objects. A new diagonally weighted algorithm is proposed to smooth the apparent gaps within the overlapping area between the two adjacent videos. A visualization method for the location and trajectory of a moving virtual object is proposed to display the moving object and its trajectory in the 3D virtual environment. The experimental results showed that the proposed set of algorithms are able to fuse multiple real-time videos with 3D models efficiently, and the experiment runs a 3D scene containing two million triangles and six real-time videos at around 55 frames per second on a laptop with 1GB of graphics card memory. In addition, a realistic AVE with a wide field of view was created based on the Digital Earth Science Platform by fusing three videos with a complex indoor virtual scene, visualizing a moving object and drawing its trajectory in the real time. 相似文献
13.
14.
针对监控视频动态目标的空间定位问题,本文在考虑相机畸变的前提下,对监控相机、目标像素坐标和地理场景之间的映射关系进行了研究,提出了基于数字表面模型(DSM)和基于平面约束的目标定位算法。首先,完成相机的标定,确定相机的成像模型;然后,提取畸变校正后的目标像素坐标,并通过目标定位算法计算目标的三维地理坐标;最后,进行了定位精度评定,并分析了两种定位算法的应用特点。本文的定位算法将以像素坐标定位的目标数据解析为以三维坐标定位的空间地理信息,为多摄像头的目标跟踪提供了统一的地理参考框架。 相似文献
15.
冬季奥林匹克运动会的雪上项目建在高差悬殊、地形复杂、山高林密的区域,为了因地制宜,减少挖填方,控制资金,场馆设计需要精细准确的现状数据。本文以2022年冬奥会延庆赛区为例,利用无人机遥感、LiDAR技术获取现状数据,制作高分辨率数字正射影像及高精度数字高程模型,搭建实景三维场景,将规划设计方案制作三维模型,导入实景三维场景,进而开展辅助冬奥会规划决策的相关应用。本文成果不仅为冬奥组委会、业主和相关管理部门信息共享提供了切实的技术支撑,也为三维地理信息技术在山区大型工程中的应用提供了有效的方法借鉴,为山区冰雪项目的设计提供了参考。 相似文献
16.
虚实融合技术是视频增强三维虚拟地理场景的关键环节之一,对提高真实沉浸式视觉体验具有重要作用。现有基于视频投影的虚实融合方法,在三维场景动态更新时,通常需要对用户视角下新场景内所有渲染对象进行遍历,来筛选出摄像头范围内需融合的对象,导致融合过程耗时长、效率不高。本文提出一种顾及拓扑关系的多路视频与三维GIS场景融合的对象快速确定方法。首先对三维场景视锥体内视频对象集渲染对象动态建立拓扑网络模型;然后基于拓扑网络模型建立视频与渲染对象的拓扑关系,完成融合对象的快速确定及融合渲染;最后利用滕州市三维场景进行了验证。试验结果表明,本文提出的方法在视频与三维GIS场景融合时,整体耗时少、效率高,极大地降低了融合的计算代价,具有良好的可行性及稳健性。 相似文献
17.
Yujia Xie Meizhen Wang Xuejun Liu Ziran Wang Bo Mao Feiyue Wang Xiaozhi Wang 《Transactions in GIS》2021,25(1):450-467
Current studies on video trajectory retrieval focus on the retrieval and analysis of image content, neglecting the gap between the spatiotemporal continuity of retrieval conditions and the spatiotemporal discontinuity of multi‐camera video trajectories. In this study, we propose a method for the spatiotemporal retrieval of dynamic video object trajectories in geographic scenes. Based on the camera calibration, the proposed method organizes the scene, cameras, and trajectories, constructs the spatiotemporal constraints, and queries the trajectories using two measures: camera‐by‐camera retrieval and global trajectory retrieval. The proposed method was verified through experiments, and the results demonstrate that both measures can query trajectories effectively and reduce the spatiotemporal video review range under different spatiotemporal constraints. Furthermore, compared with camera‐by‐camera retrieval, global trajectory retrieval can reduce the spatiotemporal video review range further and return more accurate results. The proposed method may provide support for the spatial analysis and understanding of surveillance video data. 相似文献