首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
多行人目标连续定位与跟踪是大型室内空间安全防护、应急疏散、位置服务等应用领域共同关注的问题。基于固定相机的视觉监测是室内空间人流探测与行人定位的重要方式。然而现有单目视觉行人探测存在行人漏检、易受视觉盲区影响、行人身份难以确定等问题。针对这些问题,提出了一种结合视觉信息与惯性信息的主被动协同定位方法。该方法首先利用视觉行人检测算法探测视频图像中的多行人目标位置,构建像素-世界坐标转换模型,实现行人的被动视觉探测与空间定位。同时,利用智能手机惯性传感器感知行人的运动行为。在此基础上,分别利用视觉和惯性特征构建行人运动行为特征序列,通过特征序列匹配实现多目标行人的身份匹配,以及视觉和惯性信息的协同定位。实验结果表明,所提出的视觉与惯性协同定位方法能够实现多行人目标的身份匹配,协同定位平均精度约为25 cm,能够显著提升单纯视觉被动定位的连续性,减少行人漏检和视觉盲区的影响。  相似文献   

2.
针对LBS室内外无缝定位应用中室内定位坐标系与室外定位坐标系统不一致的问题,提出了一种以Web墨卡托坐标系为媒介的室内外无缝定位坐标集成方法。该方法通过一组点,已知室内及室外坐标系坐标,利用最小二乘方法计算得到室内外异构坐标系之间的转换参数,从而实现室内外环境切换后坐标位置的连续。  相似文献   

3.
用户行为感知辅助的室内行人定位   总被引:1,自引:0,他引:1  
提出了一种用户行为感知辅助的室内行人定位方法。该方法采用行为感知技术,通过智能手机内置的传感器获取行人经过室内特殊位置(如电梯、转角等)的连续多个位置相关的行为状态,结合室内路网的拓扑结构,将行人的位置匹配到相应的特殊位置,以消除行人航位推算(PDR)的累积误差,同时可以在起始点未知的情况下实现行人的自主定位。试验验证了该方法的有效性。  相似文献   

4.
针对传统的视觉定位易受噪声干扰、目标检测准确率低且无法获取终端准确位姿信息的问题,提出了一种基于卷积神经网络的目标检测和PnP相结合的移动终端室内定位方法,通过Mask-RCNN进行目标检测,然后采用EPnP算法求解相机准确的位姿信息,并对该方法进行系统实现及真实场景试验。试验结果表明,该方法目标检测准确率在98%以上,单轴定位误差在0.35 m以内,满足移动终端室内定位的精度,具有精度高、稳定性好的优点,为基于视觉的移动终端室内定位提供了新的思路。  相似文献   

5.
闫伟  牛小骥  旷俭 《测绘通报》2019,(5):7-11,54
针对光源编码定位系统存在定位不连续、易受遮挡导致定位性能下降等问题,提出了一种光源编码/行人航迹推算(PDR)组合的室内行人定位方法。该方法采用扩展卡尔曼滤波(EKF)对PDR位置和光源编码位置进行融合处理,并运用新息滤波对光源编码位置进行抗差处理。试验结果表明,光源编码+PDR组合算法能有效改善光源编码定位不连续、非视距环境中存在粗差的问题,实现连续、高精度的室内行人定位。  相似文献   

6.
充分考虑不同数据源在变化场景下的数据差异性和行人在导航定位服务中的空间认知习惯,提出了一种融合可视地标与不可视地标的行人相对定位方法。利用基于传感器复合证据理论的方法构建目标路径的不可视地标(如磁场变化、WiFi更新等),检测GoPro Fusion设备获取的全景影像中的视觉显著的可视地标及其与采样点间的相对空间方位属性;根据行人实时获取的传感器数据和地标方位信息分别推估行人在目标路径中可能停留的路段区域;采用贝叶斯概率融合方法融合可视地标与不可视地标数据进行行人定位结果推估。实验结果表明,融合多源数据可以解决单一场景下行人定位精度不足的问题。在传感器特征较少的单一场景下,与基于不可视地标的行人定位方法相比,该方法的精度提升了12.78%。  相似文献   

7.
监控视频中动态目标的精准定位与跟踪作为计算机视觉领域中重要的研究方向,近年来已成为监控领域的研究热点。传统视频动态目标检测仅依赖图像特征数据,忽略了与地理坐标系精准匹配,特别是对于多个摄像机覆盖的区域,拍摄的角度不同,投影后形成的图像空间分辨率也不同,因此,难以满足智能监控在复杂的地理场景中全方位时空信息感知。本文提出一种多摄像头协同的视频监控图像与地理空间数据互映射模型构建方法来获取动态目标的轮廓和地理位置等时空信息,首先建立监控图像信息与地理空间数据的互映射关系,将观测角度不同、尺度不同和空间分辨率的监控图像置于同一坐标系下,并在此基础上通过融合Canny算子与背景减法来检测目标的边缘信息;然后采用质心偏移算法还原目标在该场景的实际位置,从而实现多角度下连续跟踪,提升地理场景的时空理解力和分析力,提高动态目标的精准定位与跟踪能力。  相似文献   

8.
提出一种融合单目视觉SLAM与机载GPS信息的无人机视频目标定位方法。首先利用单目视觉SLAM实时估计相机相对位姿,融合机载GPS数据,得到WGS84坐标系下的相机位姿估计;其次利用融合后的相机位姿将已知GPS路标投影到像平面,实现GPS路标与无人机监控视频的叠加显示;最后通过关键帧间的极线搜索匹配确定目标像素点的匹配点,并将其反投影到三维空间得其对应的GPS坐标,实现无人机监控视频中的GPS位置查询。实验验证了该方法的有效性、精确性与实时性。  相似文献   

9.
王辰  郑顺义  朱锋博  桂力 《测绘通报》2018,(4):32-35,82
提出了一种基于多目视觉的实时无人机自动定位方法。该方法将多相机和多台计算机联合组建局域网,通过相机标定、图像同步采集、背景差分与前方交会等实现无人机自动检测与定位。为了验证该方法的有效性,开发了一套无人机检测和定位的软硬件系统,试验结果表明该方法是可行、有效的,定位精度满足要求。  相似文献   

10.
邵晓航  吴杭彬  刘春  陈晨  蔡天池  程帆瑾 《测绘学报》2021,50(11):1478-1486
在自动驾驶场景中,视觉相机能够实现低成本的定位与环境感知,但是场景中的动态目标会影响视觉定位的轨迹.对此,本文提出了语素关联约束的动态环境视觉定位优化方法.首先,利用目标检测和语义分割提取环境中的语义实体;然后,通过语素关联模型识别出动态语素;最后,建立动态语素的特征掩膜,用于特征匹配过程中的动态目标特征点过滤,从而提高视觉定位效果.本文基于视觉机器人平台在校园道路开展了试验,发现了动态目标通过关键点影响视觉定位结果的规律——在转弯时或者目标在视野中横向移动时影响较大.试验结果表明,本文方法的动态语义要素识别的平均精度F1约为87%,并且在语素关联优化前后,局部区域最大轨迹距离差为2.463 m,与真值对比RMSE降低了38%.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号