首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
基于方差分量估计的自适应融合导航   总被引:23,自引:4,他引:23  
多源传感器观测信息的精度一般不一致,利用方差分量估计理论可以合理地顾及各传感器观测信息在融合导航解中的权比.首先给出基于多源观测信息的融合导航解算模式,进而基于方差分量估计讨论了各传感器观测信息在融合导航解中的合理平衡问题,然后应用自适应因子顾及动力学模型预报信息的贡献,给出了计算过程,并利用模拟数据进行了试算与比较.  相似文献   

2.
本文是用滤波估计的方法对多传感器数据进行融合.在误差处理方面应用多元方差分析方法来消除各雷达测量数据的偏差,最终预测信号在短期内的轨迹.该方法简单、精度高、可信度强.  相似文献   

3.
GPS-InSAR数据融合解算三维形变场模型易受观测值粗差影响,且基于方差分量估计的定权方法不具备抵御粗差能力,计算效率低下。鉴于此,本文提出了一种基于抗差垂直向方差分量估计的GPS-InSAR融合解算模型,利用方差分量估计方法及抗差估计理论,通过对观测值最优化分类并进行选权迭代,精确分配权重,进而有效计算三维形变场。试验结果表明,该方法能有效抵御观测值粗差不利影响,提高三维形变场反演精度,提升逐点式计算的三维形变场效率。  相似文献   

4.
针对卫星导航系统在实际测量中存在大量野值的情况,利用M估计计算各系统污染分布统计特性,应用不确定度评定分配权值并进行融合。通过实例分析该法在模型及算法选择上均具有优越性。  相似文献   

5.
陈江波  朱芸芸  李艳 《测绘科学》2013,(4):12-14,21
本文是用滤波估计的方法对多传感器数据进行融合。在误差处理方面应用多元方差分析方法来消除各雷达测量数据的偏差,最终预测信号在短期内的轨迹。该方法简单、精度高、可信度强。  相似文献   

6.
基于等效残差积探测粗差的方差-协方差分量估计   总被引:1,自引:1,他引:1  
已有方差-协方差分量估计(VCE)的粗差探测是对残差检验,而VCE的本质是利用残差的二阶量来估计它的二阶中心矩,因此更合理的方法应该对残差二阶量检验.由最小二乘残差估值导出了一组服从标准正态分布的等效残差;然后从等效残差的VCE基本方程出发,分别采用χ2统计量和正态积Np统计量检验等效残差的平方及其乘积.结果表明,采用...  相似文献   

7.
为了更加准确地判断水下磁性目标空间位置及形态,有必要研究由磁场标量信息向矢量信息换算的方法.根据总强度磁异常与磁异常分量傅里叶变换后的频率域关系,推导由总强度磁异常向磁异常分量换算的公式.利用获取的总强度磁异常,结合测区地磁场方向信息,即可实现标量场向矢量场换算.采用小尺度与大尺度球体以及直立长方体磁场模型对提出方法进...  相似文献   

8.
基于多传感器观测信息抗差估计的自适应融合导航   总被引:7,自引:0,他引:7  
首先利用抗差估计原理构造了基于观测信息的融合导航解,再利用动力学模型信息进行自适应融合,最后利用模拟算例进行多种方案的计算与比较。  相似文献   

9.
为了克服现有SRTM和ASTER各自缺陷,提升公共DEM精度,本文提出了一种顾及地形坡度的SRTM和ASTER加权融合方法。首先对两种DEM进行地理配准;然后计算不同坡度等级下SRTM和ASTER的高程误差,并得到DEM融合权重;最后采用加权平均法对SRTM和ASTER进行融合。高精度控制点的检验表明:融合后DEM精度有明显提高,相比于原始SRTM和ASTER高程误差,标准差分别降低了5.65 m和1.20 m。  相似文献   

10.
IKONOS图像的线性回归波段拟合融合方法   总被引:3,自引:0,他引:3  
王忠武 《遥感学报》2010,14(1):49-61
讨论基于线性回归波段拟合的空间细节信息提取方法的可行性。首先通过全色与多光谱图像构造线性回归方程,根据全色图像的高频成分设置最小二乘求解的权系数,然后利用回归系数构造低分辨率的全色图像,提取空间细节信息,最后将空间细节注入多光谱图像中进行融合。通过IKONOS全色和多光谱图像的融合实验,比较了本文方法与基于光谱响应函数的方法,结果表明:采用本文方法提取的空间细节信息进行融合,能达到甚至超过基于光谱响应函数方法的融合质量;相对于与FastIHS融合方法,本文方法的融合质量也有较大的提高。  相似文献   

11.
提出了一种自适应融合颜色特征和边缘特征的粒子滤波跟踪算法。首先,利用粒子滤波的天然框架,选择在红外条件下最能代表目标信息的颜色特征和边缘特征构造目标的多特征模型;然后,根据不同特征对目标与背景的可分性,对多特征模型中各特征分量的权值进行自适应调节;最后,借助动态空间模型,对粒子滤波跟踪算法进行改进,预测粒子的运动状态,从而克服环境突变对跟踪稳定性的影响。实验结果表明,本文算法能克服各种背景杂波及噪声的干扰,并能很好地解决目标在复杂背景下的尺度变化和突变运动带来的困难,保证了跟踪的鲁棒性和稳定性。  相似文献   

12.
提出了一种基于视差图融合的匹配方法。首先,基于归一化互相关系数(normalized cross correlation,NCC),利用多个不同尺寸的匹配窗口分别进行匹配,获取相应的视差图;然后,提出了一种左右一致性(left right consistency,LRC)和信噪比(signal to noise ratio,SNR)相结合的置信测度,用来评价视差图中每个视差的置信水平;在此基础上,提出了一种视差图融合策略,该策略对上述多个匹配窗口获取的视差图进行加权融合,融合时既考虑了视差本身的置信水平,也兼顾了其邻域视差的影响。采用TanDEM-X的聚束立体影像进行试验,结果表明,本文方法能有效减少DEM粗差点,DEM高程精度由11.28 m提高到8.41 m。  相似文献   

13.
在分析现有遥感影像融合方法的基础上,针对多源遥感影像之间的地物差异,提出了一种基于局部差异加权的融合方法(local difference powering fusion,LDPF)。实验表明,该方法能在提高空间分辨率和保持光谱特征的同时,较好地解决空间信息差异的问题。  相似文献   

14.
基于数据融合的SRTM数据空洞填补方法   总被引:7,自引:0,他引:7  
总结国内外对SRTM数据空洞的填补方法,指出基于内插的填补方法无法满足大区域SRTM数据处理的需求。提出在内插的基础上进行数据融合的空洞填补方法,并以实例验证了该方法是一种获取完整地形数据的有效途径。  相似文献   

15.
对不同空间分辨率、时间分辨率和波谱分辨率的遥感图像进行综合、高效的利用,是遥感应用的关键问题之一。基于主分量变换法,提出了基于主成分分析的模拟真彩色融合法。该方法不仅具有主成分分析融合法的光谱波段选择灵活和光谱信息损失小等优点,同时该方法还可获得逼真的自然色彩的融合图像,提高了图像的融合效果。利用QuickBird全色和多光谱数据进行了试验,并与色彩空间变换法(IHS)、比值变换融合法和乘积变换法等传统方法,在定性和定量两个方面进行了比较分析。结果表明,新方法很好的保留了多光谱影像的光谱信息,提高了空间细节的表现能力,是一种有效实用的遥感图像融合方法。  相似文献   

16.
基于主成分分析的遥感图像模拟真彩色融合法   总被引:3,自引:0,他引:3  
对不同空间分辨率、时间分辨率和波谱分辨率的遥感图像进行综合、高效的利用,是遥感应用的关键问题之一.基于主分量变换法,提出了基于主成分分析的模拟真彩色融合法.该方法不仅具有主成分分析融合法的光谱波段选择灵活和光谱信息损失小等优点,同时该方法还可获得逼真的自然色彩的融合图像,提高了图像的融合效果.利用QuickBird全色和多光谱数据进行了试验,并与色彩空间变换法(HIS)、比值变换融合法和乘积变换法等传统方法,在定性和定量两个方面进行了比较分析.结果表明,新方法很好的保留了多光谱影像的光谱信息,提高了空间细节的表现能力,是一种有效实用的遥感图像融合方法.  相似文献   

17.
一种基于小波系数特征的遥感图像融合算法   总被引:18,自引:2,他引:18  
多光谱图像和全色图像是目前卫星遥感领域最常见的传感器图像.为了更充分地发挥这两类遥感图像数据的价值,人们利用两类数据的互补性,将多传感器融合技术引进了遥感图像处理领域.在IHS彩色空间变换和小波多分辨率分析的基础上,利用图像高频小波系数的多个特征来定义特征量积,并利用特征量积作为依据提出了一种图像融合新算法.通过一组多光谱图像和全色图像数据进行融合仿真试验,并将该算法与IHS,HPF等算法和归一化矩算法作了比较.证明该方法能在保留多光谱图像光谱信息的基础上,有效地提高多光谱图像的空间分辨率.  相似文献   

18.
基于分辨率退化模型的全色和多光谱遥感影像融合方法   总被引:7,自引:0,他引:7  
从影像成像的频率特性出发,提出了一种影像分辨率退化模型,并在此基础上提出了一种新的全色和多光谱遥感影像融合方法。  相似文献   

19.
为了使融合影像能够最大限度地保持原始多光谱影像的光谱特征,同时又能尽可能地提高融合影像的空间分辨率,引入了模拟人眼视觉机理的高斯尺度空间技术,提出了一种基于高斯影像立方体的空间投影融合方法。该算法在避免光谱扭曲的同时,又能提高融合影像的空间分辨率。采用QuickBird遥感影像进行的实验结果表明,本方法在光谱偏差指数、相关系数、UIQI、ERGAS、运行时间、主观视觉感受等指标上较传统方法有显著优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号