首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 812 毫秒
1.
针对当前GIS软件矢量数据图层绘制方式,分析了大规模环境下多机并行计算体系,提出了一种基于单机多核CPU下的矢量数据的快速绘制方法.文中阐述了该方法内存位图池、本地缓存和线程组模型等关键技术.文中的实验结果表明:在单机多核CPU平台下,用线程组模型的并行绘制方式能够有效提高应用程序的绘图性能.  相似文献   

2.
新一代并行空间分析将面临空间大数据分析和实时空间分析服务的挑战。矢量空间计算作为GIS系统中的重要组成部分,在并行化算法设计中存在负载不均,并行扩展性差,IO性能低等技术瓶颈。本文首先从应用需求和技术发展的演变历史回顾了矢量空间分析算法发展过程;然后,从研究现状的角度详细阐述了并行矢量空间分析计算的研究成果,总结了并行空间分析算法的算法特征和技术瓶颈,对不同并行编程模型进行了对比,并提出了并行空间分析算法的研发流程;最后,从发展前景的角度预测了全空间信息系统中基于多粒度时空对象的空间数据模型和计算方法的发展趋势,提出了以内存计算等技术实现存算一体化的新型空间数据模型和分析方法的技术趋势。  相似文献   

3.
作为二阶点模式分析方法,Ripley's K函数(简称K函数)以距离为自变量探测不同尺度下点事件的分布模式及演变规律,在生态学、经济学、地理学等诸多领域得到广泛应用。然而,随着点规模的增加,估计与模拟阶段点对距离遍历计算时间开销激增,严重制约了K函数的应用,算法流程优化与并行加速成为应对海量点数据下K函数性能瓶颈及可计算性问题的关键技术手段。针对默认数据分区未考虑点事件空间邻近性导致跨节点通讯成本高昂且K函数距离阈值较大时索引优化失效的现象,本文提出一种基于空间填充曲线的K函数优化加速方法。该方法采用Hilbert曲线构建空间分区,在顾及数据空间邻近性的前提下减少分区间数据倾斜和通讯开销;在分区基础上,利用Geohash编码改进各分区内本地空间索引策略加速点对距离计算。本文以湖北省工商企业注册数据为例,通过对比实验分析了默认分区无索引、KDB分区组合R树索引、本文Hilbert分区组合Geohash索引算法在不同数据规模、距离阈值、集群规模下的计算耗时。结果表明,300 000点数据规模下本文方法的时间开销约为默认分区无索引方法的1/4,9台节点下加速比超过3.6倍。因此,该方法能有效提升分布式环境下K函数计算性能并具有良好的可伸缩性,可为其他点模式分析方法的优化提供参考。  相似文献   

4.
Vatti算法是常用的矢量多边形裁剪算法之一,在其构建扫描束实现交点计算的过程中,二叉树的数据结构和递归计算方法导致其计算效率受矢量多边形边界顶点数量影响显著。本文针对Vatti算法执行过程中较为耗时的扫描束构建环节,提出了一种多边形边界顶点预排序的优化方法——VCS(Vertex Coordinate Pre-Sorting)方法,并基于该方法实现了对Vatti算法的GPU细粒度并行化。VCS方法使用双向链表对Vatti算法原有的二叉树数据结构进行了替换,以较小的额外存储空间取得了多边形边界顶点信息查找效率的明显提升。在GPU环境下采用双调排序算法对多边形边界顶点数组元素进行并行化排序并过滤出有效值,克服了原始算法使用二叉树存储导致效率低下的问题。实验结果表明,改进后的算法与原始算法相比,具有相同的计算精度;当多边形顶点数量为92万,CUDA每个线程块中的线程数量为32时,使用VCS优化方法,与采用CPU计算构建扫描束方法相比,GPU并行化方法获得了39.6倍的相对加速比,矢量多边形叠加分析算法效率总体上提升了4.9倍。  相似文献   

5.
局部型地形因子并行计算方法研究   总被引:2,自引:0,他引:2  
 随着分析区域的扩展及需求精度的提高,数据-计算密集型地形分析亟需通过并行化来满足用户的时间响应需求。局部型地形因子是以一定半径的分析窗口(通常为3×3)计算且具有单元计算结果独立性的地形信息,是数字地形分析的基本参数。本文在分析局部型地形因子串行算法特征的基础上,以坡度算法为样本,对局部型地形因子的并行计算方法进行了深入研究。从数据并行的角度,对并行计算环境下的数据划分粒度、方式及结果融合策略进行了分析,构建了局部型地形因子的并行计算方法。利用SRTM陆地表面地形DEM数据,设计了坡度并行计算的实验以验证其方法的正确性和实用性。实验结果表明,本文提出的并行计算方法顾及了任务、数据及计算环境,可快速对局部型地形因子串行算法进行并行化改造,提高算法的执行效率,具有较好的并行性能。  相似文献   

6.
互联网技术的发展使地理信息技术得到了前所未有的发展和应用,地理信息计算呈现出计算速度快、运行效率高、应用多样化的发展特征。而随着计算机硬件性能飞速提升,传统的GIS数据处理方式并不能与之匹配,各种缺陷与弊端逐渐显现,亟待更高效的数据处理方式。目前,以并行集群计算技术和分布式网络技术为代表的高性能计算的出现,为这些问题的解决带来了新思路,并逐渐发展形成了新一代的多核并行高性能计算系统。当前,如何利用新型硬件体系结构带来的计算能力,研究新一代高性能GIS计算系统,解决现在所面临的时空数据密集和计算密集问题成为重要挑战。高性能计算是基于一组或几组计算机系统组成的集群,通过网络连接组成超级计算系统以加强数据处理、分析计算性能的一种技术。在实际应用中,逐渐形成Hadoop,Spark和Storm 3大主流分布式高性能计算系统,它们三者各具优缺点。本文从高性能GIS算法、并行GIS计算、内存计算和众核计算4个方面梳理、归纳总结了高性能GIS的技术体系,分析了每类高性能GIS技术特征,综合分析、评述了近年来高性能GIS的研究进展,并对高性能GIS未来发展进行展望,为更完备、高效的高性能GIS体系的建立、发展和应用提供参考。今后,并行GIS计算、高性能计算模式和分布式存储仍然是GIS技术领域发展的重要方向,通过高性能GIS系统可有效地解决时空数据密集、计算密集和网络通讯密集等问题,大大提升GIS地理分析效率。  相似文献   

7.
空间填充曲线的空间排列码可实现多维空间到一维空间的线性映射,广泛应用于空间查询、空间索引、空间划分及影像编码等领域。Hilbert是一种优秀的空间填充曲线,具有非常好的空间聚集性。传统的Hilbert排列二进制循环位操作算法的算法复杂度为O(n2)。本文首先分析了Hilbert的分形自相似特性,推导并归纳出Hilbert状态转移矩阵,按位编码顺序定义了空间划分中的象限顺序,将Hilbert状态转移矩阵转换为C++中的数组运算,减少了Hilbert码计算过程中的嵌套循环及迭代处理,将算法复杂度降为O(n)。其次,采用位域共用体以数值计算替代了传统计算过程中的数值与字符串间类型转换,提高了Hilbert码生成算法的性能。最后,在C++环境下实现了Hilbert码快速生成算法的相关代码,并完成算法的正确性验证实验和性能对比实验。实验结果表明,本文提出的算法计算结果与二进制循环位算法的结果一致,在性能上本文算法与二进制循环位算法及空间层次分解算法相比有明显的优势。  相似文献   

8.
目前缺乏针对较强空间特性水文地质计算参数的高效采集方法与管理机制,而且现有孔隙地下水流有限元数值模拟在三维可视化与空间分析等方面仍存在很多不足。因此,本文以有限元数值计算方法和三维地理信息平台为基础,结合GIS空间分析算法和计算机图形学理论,针对孔隙承压地下水有限元分析过程的关键步骤(概念模型构建、空间离散、水文地质参数提取与赋值等),提出了孔隙地下水有限元数值模拟过程在3D GIS下的实现方法和技术框架。基于水文地质钻孔数据和GTP(Generalized Tri-Prism)空间数据模型,以盐城市滨海平原水文地质区为研究区域,实现了地下水系统空间结构特征的三维表达,同时与地下水流有限元数值模型相耦合,提出了3D GIS模型与地下水非稳定流有限元数值模型耦合的核心处理算法,并在此基础上开发了3D GIS地下水流数值模拟系统。应用实例表明,该技术框架可有效简化有限元分析流程、优化模型计算效率、实现地下水有限元数值模拟过程及计算结果的三维可视化。  相似文献   

9.
流域编码是以子流域划分进行流域相关研究的重要内容。Pfafstetter 流域编码以编码唯一、顾及流域拓扑关系及编码效率高等优点而被广泛采用。本文在流域相关研究的分析范围不断增大、数据精度越来越高的需求背景下,以Pfafstetter 编码为基础,对流域编码并行化方法进行研究。首先,分析了Pfafstetter 编码不全面和码位不一致的问题,改进了Pfafstetter 编码规则;然后,从数据并行的角度,讨论了并行计算环境下的数据划分及并行化策略,进而设计了流域编码并行算法;最后,利用长江中上游流域SRTM数据,在集群系统上对流域编码并行算法的正确性和并行性能进行了测试。实验结果表明,本文设计实现的流域编码并行算法可获取与实际较为一致的计算结果,且提高了编码计算效率,可为基于子流域划分的流域分析并行化提供参考。  相似文献   

10.
临近节点是影响矢量数据质量的关键问题.本文针对数据维度提升带来的高维信息这一特征,将要素节点升级为节点缓冲区,设计实现了基于要素节点缓冲区融合的临近节点检查方法,通过多源数据合并、要素转节点、相同节点融合、缓冲以及缓冲区融合等步骤获得要素节点缓冲区融合面,最后通过面积容差判定出临近节点所在范围.实验证明,算法通用性强,...  相似文献   

11.
 GIS应用正面对空间数据规模日益增加和空间分析算法复杂度逐渐提高的挑战,本文提出一种基于MySQL空间数据库集群与MPI的并行计算库分布式空间分析框架的解决方案。该框架使用MySQL空间数据库集群解决大量空间数据存储与管理问题,利用MySQL Spatial的Replication机制加强空间数据的冗余备份和并发访问控制,同时使用MPI负责分布式计算节点间的通信减少人工控制通信的开发成本。并行框架的任务管理与调度系统采用优先队列式管理,通过Master节点监控集群状态,合理分发计算任务实现负载均衡和容错。最后,以多边形Overlay算法为例,研究其在该并行空间分析系统下的并行策略,采用数据并行的管道流水线作业方式在框架中运行测试,结果表明,该并行框架相比串行算法可以得到可靠的加速比。  相似文献   

12.
近年来,随着遥感空间数据广泛应用于生态系统,推动了区域尺度生态遥感参数模型的发展。敏感性分析对识别模型关键参数,降低模型不确定性和完善模型具有重要作用。区域尺度的生态遥感参数模型,在进行模型参数敏感性分析时,由于涉及到空间数据的复杂运算,单机环境无法满足快速分析的要求。为了提高生态遥感参数模型空间敏感性分析效率,本文以青藏高原为研究区域,利用植被光合模型VPM(Vegetation Photosynthesis Model)和开源云计算平台Hadoop,设计和实现了基于Sobol′的生态遥感参数模型空间敏感性分析并行算法,并在实验室集群环境下进行算法分析,验证了算法的有效性和适用性。该算法的核心是利用MapReduce并行编程技术,对空间敏感性分析中的地图抽样和模型迭代过程进行任务分割,将分割后的子任务分配至不同的计算节点进行并行计算。实验表明,本文提出的并行策略,能有效缩短地图抽样和模型迭代计算时间,相比于单机算法,并行算法的运行速度提高了14倍左右。  相似文献   

13.
基于WebService的Internet GIS集成与应用   总被引:12,自引:0,他引:12  
InternetGIS是GIS发展的重要方向,InternetGIS要想真正达到实用化,必须解决网络环境下多源异构空间数据集成、网络环境下的空间元数据服务等关键技术。WebService是分布式计算领域出现的最新成果,它是实现异构系统互操作的理想计算模型。本文研究了基于WebService的InternetGIS软件的体系结构,网络环境下多源异构空间数据的互操作实现,基于WebService的空间元数据服务,提出了一个基于WebService的InternetGIS应用系统集成方案,以期为InternetGIS应用集成提供一个新的思路,并以南京“数字房产”项目为例介绍了其应用。  相似文献   

14.
针对传统地理信息系统在空间数据处理中无法有效进行数据访问与集成的问题,提出了面向网格计算环境下空间数据访问与集成的地理信息系统体系架构,并给出了面向网格环境的Java跨平台GIS系统原型的设计方案,以及地理信息网格服务化提升的关键技术。进一步整合Java拓扑模型、Eclipse富客户端平台与面向海量数据访问的数据网格组件,以标准规范的开发流程,给出构建面向网格环境具备可拓展结构的跨平台地理信息系统原型的实现过程。  相似文献   

15.
网格GIS体系结构及其实现技术   总被引:43,自引:4,他引:39  
网格 GIS是实现广域网络环境中空间信息共享和协同服务的分布式 GIS软件平台和技术体系。将地理上分布、系统异构的各种计算机、空间数据服务器、大型检索存储系统、地理信息系统、虚拟现实系统等 ,通过高速互连网络连接并集成起来 ,形成对用户透明的虚拟的空间信息资源的超级处理环境就是网格地理信息系统。本文在分析网络空间数据特征的基础上 ,提出了网格 GIS的 5层体系结构模型,分析了空间(元)数据标准、空间服务标准、分布空间对象技术、构件与构件库技术、基于框架的互操作技术、中间件技术等 ,它们是实现该系统的关键技术。  相似文献   

16.
影像金字塔是实现影像数据多分辨率组织的重要方式,是提高影像可视化性能的有效手段。传统串行金字塔构建算法,对大规模影像数据的构建性能已无法满足遥感影像快速浏览的预处理需求。故此,其成为一个亟待解决的问题,而利用多核、多节点的高性能集群计算环境和并行机制是一个重要的技术途径。本文在共享外存的高性能集群环境下,提出使用消息传递接口(MPI)的金字塔并行构建算法,对构建遥感影像金字塔过程中的重采样与I/O 过程进行并行处理,大大缩短了遥感影像金字塔构建时间。实验结果表明:(1)该算法比传统串行构建方法的加速效果明显,对于单波段遥感影像,其加速效果可达到GDAL的5 倍以上,而对于多波段遥感影像,加速效果可达到GDAL的2 倍以上;(2)遥感影像数据量越大,并行构建算法加速效果越显著,对于大规模的遥感影像,本文提出的金字塔并行构建算法的速度可达到GDAL的10 倍左右。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号