首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 984 毫秒
1.
针对目前DEM完整性认证的需求,以及相关认证方法的欠缺,基于脆弱水印技术提出了一种充分顾及DEM地形特征的完整性认证算法.本文对DEM数据进行特征分析,进而提出与其相适应的脆弱水印技术的特殊要求.为了减少水印嵌入对载体数据的影响,在脆弱水印嵌入过程中,首先,提取DEM数据特征线,并依此将数据分为特征区域和非特征区域2部分;然后,根据特征区域的栅格数和水印序列段生成脆弱水印,并以LSB位平面替换的方法,将水印信息嵌入到非特征区域部分.在完整性认证过程中,同样提取DEM数据的特征区域,将重新生成的水印信息与提取的水印信息进行对比,从而判断数据的完整性.算法实验结果表明,其能有效认证DEM数据的完整性,对数据影响较小,且算法安全性和适用性较强.  相似文献   

2.
完整性认证是遥感影像获得有效利用的前提,完整性无法确定的遥感影像,其使用价值将大打折扣。传统认证技术没有顾及遥感影像认证过程中的特殊性,并不是所有用户都有权甄别遥感影像是否经过扰动。而且,传统认证技术对数据进行二进制级别的认证,已不能满足遥感影像的内容认证需求。本文从内容认证的角度研究遥感影像的多级权限管理,提出一种基于感知哈希技术与单向函数的遥感影像多级认证权限的管理方法。感知哈希技术能用很少的信息表征遥感影像的有效内容,并对不改变影像内容的操作保持鲁棒性,与密码学Hash函数有着显著的区别。多级权限的管理则通过建立与权限矢量对应的密钥矢量来实现,权限较高的用户可以通过自己的密钥计算出低权限用户的密钥,反之则不行。本方法首先以单向函数生成不同等级的权限密钥,然后,根据不同区域的地物影像进行敏感等级的划分,最后,计算不同区域影像的感知哈希序列,并通过不同级别的密钥加密生成的感知哈希序列。用户认证影像内容完整性时,根据权限的不同认证不同敏感度的影像。实验与分析表明,该算法能有效实现遥感影像的认证权限管理,并具有较高的实现效率和安全性。  相似文献   

3.
新型格网DEM等高线生成技术与方法   总被引:1,自引:0,他引:1  
以格网DEM数据为基础,生成具有良好保凸性、光滑性、平顺性特征的高质量等高线,已逐渐成为制作等高线图的重点。鉴于现有技术方法在沟道、山脊等地形变化部位生成的等高线中存在生硬、相交、异常闭合等问题,本文以黄土丘陵1:5万不同格网分辨率DEM为例,采用对比分析方法,建立了基于DEM格网加密技术的高质量等高线生成方法。实验表明:(1)采用以4×4 DEM格网单元为搜索圆的完全规则样条函数插值法,以可视化时图面0.1 mm的实际距离为加密DEM的格网分辨率值,对DEM格网进行加密处理后生成的等高线具有更为理想的保凸性、光滑性和平顺性特征;(2)对于已知综合尺度的地形,存在最优DEM格网分辨率阈值,若要高质量地再现原始等高线,则实际DEM格网分辨率不得低于最优DEM格网分辨率阈值。  相似文献   

4.
正六边形格网由于各向同性、邻接等效、拟合精度高等优点,被作为规则格网DEM数据结构的格网单元,已应用到流向分析、谷地线提取等数字地形分析中,但是其质量检测评价仍没有得到很好的研究,DEM的质量直接影响到后续数据分析结果以及相关决策的正确性与可靠性。使用常规的方法如检查点法、剖面法只能在局部评价DEM的误差情况,无法全面的评价DEM的质量。而等高线能够反映地形地貌的整体情况,因此等高线回放法通过分析回放等高线的质量,进而检测评价DEM的质量,是评价DEM质量的一种相对全面准确的方法。因此,本文将顶点高差标记法应用到六边形DEM格网结构中,为正六边形规则格网DEM提出了一种等高线生成算法,并对正六边形格网DEM的数据质量进行评价和分析。首先,本文利用生成等高线拓扑正确性、与原始等高线贴合度以及弯曲特征保持情况3个指标以评价六边形格网结构下的基于顶点高差标记法所追踪的等高线,其具有无自相交等拓扑错误、与原始等高线贴合度高、弯曲特征保持情况良好等特点,证明了该算法的可行性。此外,本文将该生成方法应用到不同规则格网DEM质量对比中,即基于顶点高差标记方法分别生成四边形DEM和六边形DEM的等高线,并基于上述3个指标对比六边形DEM和四边形DEM生成等高线的质量,从而进行六边形DEM和四边形DEM的质量差异比较,实验比较表明,在相同分辨率下,六边形DEM回放的等高线与原始等高线的贴合度更高,弯曲特征保持情况更好,并且随着分辨率的降低,其贴合度降低幅度较小,弯曲特征丧失较少,并未出现尖角化、形状过度变形等情况,因此六边形DEM的质量优于四边形DEM,并且随着分辨率降低,六边形DEM的精度折损程度更小。  相似文献   

5.
随着高性能计算的发展,并行技术已经广泛应用于LiDAR数据的分析处理。本文针对现有LiDAR数据生成DEM并行算法所存在的负载不均衡问题,设计并实现了动态负载均衡的LiDAR数据生成DEM并行算法。该算法采用主从式并行策略,管理进程负责LiDAR点云的高效自适应条带划分,计算进程负责LiDAR点云生成DEM的计算。本文设计了任务量的动态调度策略:首先,由所有进程并行创建任务量由大到小排列的待处理任务队列;然后,管理进程根据计算进程的反馈对待处理任务进行动态分配,以达到负载均衡。在24 核集群环境下,用30 GB(约12 亿点)LiDAR数据对本文算法进行测试,生成分辨率为1 m的格网DEM,算法加速比峰值达到15.16;同时,与静态调度策略进行对比实验,结果显示本文的动态负载均衡策略可更好地保证进程间的负载均衡,有效地提高了LiDAR生成DEM并行算法的整体效率。  相似文献   

6.
传统嵌入式水印算法会对原始数据的精度造成影响,为满足高精度矢量地理数据版权保护需求,本文提出了一种应用泰森多边形的矢量地理数据零水印算法。首先,对矢量地理数据进行归一化预处理,采用Douglas-Peucker算法提取矢量地理数据的特征点,并构建特征点的泰森多边形;然后,根据每个泰森多边形与相邻多边形周长的大小关系,确定其特征位为1或0,运用泰森多边形周长与原始水印之间的哈希映射值,确定该特征位在序列中的位置,特征序列中每一位可能会有多个不同的特征位对应,利用投票原则确定该位置的最终值;最后,将特征序列与置乱后的水印图像序列进行异或运算,生成零水印。研究表明,该算法能够抵抗平移、缩放、旋转、裁剪和简化等常见攻击手段,具有较强的鲁棒性。这可为高精度矢量地理数据版权保护提供技术参考。  相似文献   

7.
为了提高加密算法的性能,设计一种基于改进型参数切换混沌的图像加密算法。首先根据符号逻辑映射序列自适应选择正弦、余弦或帐篷映射生成参数切换混沌随机序列。选取与行数、列数等长的混沌序列排序生成混沌有序索引值作为行列置乱索引,依次对图像按行、列进行置乱,将剩余混沌序列扩展后与置乱的图像像素按比特进行异或加密得到加密图像,提高密钥空间。实验结果表明,该算法的密钥空间较大,能够较好地抵抗攻击。  相似文献   

8.
脆弱水印可以实现对数据内容真实性的认证,并对发生变化的位置进行定位,鉴此,本文提出了一种点约束分块的矢量地理数据精确认证算法。在认证内容嵌入过程中,首先,按照点约束的方法对矢量地理数据进行分块,并将每块的数据点进行空间位置关系的“之字形”排序,建立数据点之间的位置关系;然后,将相邻点生成的脆弱水印信息嵌入到当前点。在内容精确认证时,比较原始的水印信息与提取的水印信息,判断二者是否相同来鉴别数据是否更新。将本文算法与均匀分块的方法进行了对比实验,结果表明,本文提出的认证算法能实现在数据更新时的精确认证,并可实现要素删除的精确认证,在检测数据变化时可对修改位置进行定位与标记。  相似文献   

9.
本文提出一种基于单元复制的通用化格网系统生成新算法。其核心是采用"简单单元复制+有效区域控制"。首先,建立坐标系,确定待计算剖分格网系统的种类,从而确定格网剖分类型的3个关键因素。在此基础上,确定各类多尺度格网有效控制边界。然后对多尺度格网进行合适的数学变换,计算单一三角面格网系统单元节点坐标,并建立不同层级单元节点的关联关系。最后,以六边形格网为例展开验证,直接生成正二十面体表面格网。实验结果证明,该算法具有很好的通用性,可以通过调整相应的起算参数,生成各类多尺度格网。避免了传统定制算法的局限性,实现了统一化生成各类格网系统的目标,为不同剖分类型全球离散格网系统间互操作性问题研究提供了一种解决思路。  相似文献   

10.
全球离散格网系统是一种新型的地球空间数据模型,是平面格网模型在球面上的扩展。由于六边形的几何结构优势,经常被用于球面离散格网的构建。在平面格网向球面映射过程中,因球面的不可展性,格网上的距离和方向都会发生巨大变化,导致矢量数据球面格网化绘制的精度无法得到保证,这成为矢量数据在全球离散格网显示的一个重要瓶颈,直接制约了球面格网上空间度量关系的建立。本文针对全球六边形离散格网上矢量线数据的绘制问题,研究了平面-球面映射过程,对直线方向影响的统计变化规律,对矢量线数据的格网化表达进行了精度控制,使得平面格网上的矢量绘制方法,能在球面格网上进行高精度的绘制,并保证矢量数据的球面格网绘制误差严格控制在当前层次格网的一个单元内,为格网化数据的高精度显示和格网空间度量的建立奠定了理论基础。  相似文献   

11.
基于DCT域数字水印技术的DEM版权保护研究   总被引:4,自引:1,他引:3  
探索适用于DEM的近无损自适应数字水印算法,以期为DEM版权保护提供有效的解决方案。首先,将水印嵌入在DEM地性线位置,以增强水印鲁棒性,实现水印嵌入位置的自适应。其次,从理论上研究在DCT域内,采用加性水印嵌入规则时,如何根据给定的DEM精度,并结合Watson视觉模型确定水印嵌入强度的问题,避免以往研究中或者通过反复实验确定嵌入强度,费时费力,或者由视觉模型确定而不能满足DEM精度要求的缺点,同时实现水印嵌入强度对地貌类型的自适应。结果表明,该算法既能满足水印的不可见性,又能实现DEM精度的近无损和提取等高线的近无损性要求,且具有良好的抗JPEG压缩、JPEG2000压缩和几何裁剪的能力。  相似文献   

12.
基于数字水印和TESLA,提出了一种视频多点广播立即源认证模型,利用查找表的视频水印算法,将视频重要分量的消息认证码、公开密钥和立即认证散列值等嵌入到视频的非重要分量中;从而达到视频数据多点广播的立即源认证,避免了接收方数据包缓存,并给出公开延迟时间间隔d的一种计算方法。  相似文献   

13.
针对线状图层数据,面向地图对象,描述了一种能对2D矢量地图数据进行版权保护的水印算法.该算法把水印信息隐藏在地图对象的形状特征中,通过HASH排序和分组,把水印信息广泛地散布到图层中,并且实现了水印信息的盲检.实验表明,该算法具有很强的鲁棒性和实用性.  相似文献   

14.
DEM的填洼是水系提取中最耗时的过程。真实的地表低高程点通常在空间上相邻,在对低高程栅格进行填洼时,少数栅格的高程值更新会导致级内大量栅格的循环迭代,从而消耗大量运算时间。为了提高DEM的填洼效率,在分级填洼的基础上,提出一种等差分级填洼算法,该算法顾及DEM各级填洼时间呈幂函数逐级递减这一地形规律。算法首先创建一系列数组,数组大小随等差数列递增;然后依次将排序后的DEM数据存放至数组中,由于定义的数组大小逐渐增大,因此,低高程区域被“分割”得很细;最后,当填洼运算从级内转至数组内时,低高程区域细致的划分极大缩短了栅格循环迭代时间,从而使得算法获得了较高的效率。新算法既能有效缩短填洼过程中的迭代时间,又能保证所提取水系的完整性与连贯性。为验证算法的有效性,选用四川省不同地区的SRTM 90 m分辨率DEM作为实验数据,并与已有的DEM分级填洼算法进行对比分析。实验结果显示:当研究区域栅格总数达到两千万个时,本文算法填洼效率提升了50%左右,且随着DEM数据量的增大,算法效率的提升更为明显,与此同时,利用新方法进行填洼后,DEM水文线连续性较强,表明了新方法的有效性。  相似文献   

15.
传统水印嵌入方法往往导致原始载体数据质量的下降,而可逆水印技术由于能完整恢复原始载体数据,因此,在精度要求较高的矢量地图版权保护应用中具有较高的适用性。目前,栅格图像的可逆水印算法研究较为成熟,而在矢量地图领域则主要借鉴栅格图像的相关方法,由于没有充分利用矢量数据的组织特性,因此鲁棒性不强。针对上述问题,本文以矢量地图坐标点之间的基本空间关系在常规地图操作前后的不变性,提出一种鲁棒的矢量地图可逆水印算法。算法首先利用道格拉斯—普克方法将要素点分为特征点与非特征点两类,在此基础上计算每个非特征点与其相邻前后特征点连线所构成的夹角。在水印嵌入时,利用该夹角来映射水印比特位,并通过调整非特征点坐标来对该夹角进行调制以实现水印信息的嵌入。实验表明该算法所生成的水印具有一般可逆水印的不可感知性与可逆性,同时,对旋转、平移、要素排序、裁剪、压缩、简化等攻击也具有较好的鲁棒性。  相似文献   

16.
泥河湾盆地的化石和旧石器遗址与泥河湾古湖、古河道有极强的相关性,如果发现了湖滨相和河流阶地的沉积地层,那么下一步很可能发现古人类活动留下来的化石和旧石器遗址。本文按照广义DEM的定义,将DEM的表达对象“地形表面”改为“泥河湾更新世湖相沉积层”称为湖相层DEM,泥河湾更新世湖相层DEM的建立可以大大推进泥河湾地区的古人类活动及古地理环境的研究。本文通过提取湖相层的三维地理信息,以禾尧庄剖面为例,研究了露头信息的泥河湾更新世湖相层三维地理信息提取方法。采用三维激光扫描仪采集剖面的三维地理信息,基于LiDAR点云的数据特征设计滤波方法,针对剖面采集点的距离近似相等,采用回波强度进行区分植被及土质,得到了一定的效果。在回波强度滤波后的结果基础上,进一步利用RGB信息设置阈值,区分植被和土质,得到了较好的效果。最后,经过手动去噪,得到干净、地层信息完整的剖面三维地理信息数据,可以做为湖相层DEM建模的基础数据。  相似文献   

17.
为解决源测量数据生成海底地形过程中,数据处理方法影响海底地形精度和分辨率的问题,提出了一种多源水深数据融合方案。在分析DEM、海图水深和多波束测深数据特点的基础上,兼顾不同数据源的优点,克服单一数据源的不足,基于“移去-恢复”算法进行改进,使算法更适用于融合高精度数据源,融合海图水深和多波束测深数据于DEM,构建新的海底地形数据集。选取试验区进行真实数据试验,试验结果表明,该方法既能提高海底地形整体的精度和分辨率,又能保留高密度区域的细节信息。在试验区内,原始DEM数据分辨率为15″,均方根误差为29.408 m,传统经典的“移去-恢复”算法构建的数据集分辨率为3″,均方根误差为28.563 m,本融合方案构建的数据集分辨率为3″,均方根误差为18.841 m。可见,与传统算法相比,本文算法对高精度数据源的融合效果更好,构建的数据集精度更高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号