首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
福建省测绘局基于Geoway软件平台生产的第一代1∶1 000 DLG与目前生产的第二代DLG数据,在诸多方面存在差异,这给数据入库带来不便,因此,需要将第一代DLG进行必要的转换,达到第二代DLG的数据要求。本文通过深入研究提出了一套一二代数据转换的技术方案,有效地解决了制约数据入库的问题。  相似文献   

2.
CAD向GIS数据的转换入库   总被引:3,自引:3,他引:0  
分析了CAD到GIS数据转换过程中存在的问题,并利用Geoway对CAD数据进行加工,有效地解决了转换过程中数据丢失问题,最后基于ArcGIS Engine开发了数据入库模块,实现批处理入库,提高了效率.  相似文献   

3.
详细描述了基于Geoway平台下对20世纪80年代的手绘纸图土壤图进行县级1∶50 000数字土壤图数据矢量化的流程和方法,使之转化为能满足入库标准的E00入库数据。这其中主要包括生产流程、属性输入、拓扑构建、质量检查等。  相似文献   

4.
以济南市1∶500数据整理为对象,利用Geoway软件平台,将一套外业采集数据整理成两套数据成果,为后期的基础地理信息数据入库和数据库的维护、数据修测更新提供一种新的作业思路。  相似文献   

5.
数字地形图数据与地理信息系统入库数据有一定的差别,目前从数字地形图数据向入库数据转换使用的方法和软件很多,如何保证入库数据质量十分重要。以目前通用的作业方法为例,介绍数字地形图编辑和数据入库检查的内容和方法。  相似文献   

6.
土地利用更新调查内业数据处理方法   总被引:2,自引:0,他引:2  
土地利用更新调查内业数据采集、编辑的工作量大,处理成果的数据精度、图形拓扑关系和属性逻辑关系的准确性要求高,这就要求数据处理方法要合理。本文结合宜兴市1∶5000土地利用更新调查项目的生产实践,简单介绍了运用Geoway软件进行内业数据处理的方法、过程。  相似文献   

7.
苟浩远  胡元亮 《地理空间信息》2012,10(4):110-111,114
结合中山市火炬新城开发区地形图的入库工作,在数据转换、入库编辑和质量检查方面摸索出了一套行之有效的方法与技巧,从而在保证质量的前提下实现了ArcGIS中数字化地形图的快速入库。  相似文献   

8.
基于ArcGIS的矢量数据入库更新技术及其实现   总被引:1,自引:0,他引:1  
介绍了矢量数据入库更新的基本步骤,结合ArcGIS平台提供的桌面编辑环境、地理处理任务框架和ArcObject应用开发接口,给出了基于ArcGIS平台的3种数据更新方法 ,对空间数据库矢量数据入库更新具有一定的参考价值。  相似文献   

9.
1∶50000数据库更新工程是一个较复杂的多工序测绘工程。结合工作实践,对作业流程、技术方法及数据后期处理作了系统的阐述,认为在数据入库时,要注意数据编辑过程中的每个细节,如果处理不当,数据入库后的修改工作量相当大。  相似文献   

10.
孙悦 《东北测绘》2012,(5):171-172
辽宁省1∶10 000地形图的数据更新及建库任务已由图面、入库两套数据发展成为图库一体化的数据资料,方便作业的同时提高了工作效率。本文主要基于Autodesk MAP6平台,结合工作实际,对1∶10 000地形图数据编辑、数据入库,以及数据转换等进行了简单论述。  相似文献   

11.
梁建国  李峰 《测绘科学》2012,37(6):91-93
针对城市三维GIS中的海量数据组织需求,本文设计并实现了基于关系数据库的三维模型数据库,主要特点是支持地形数据、三维模型几何与纹理数据的一体化存储和属性的自定义动态管理。结合城市三维GIS中的海量数据访问和管理需求,从空间索引、纹理缓存、属性存取、数据加密、数据更新等方面介绍了该架构,指出按模型类别建立分类索引,能够提高空间索引查询效率。  相似文献   

12.
多源异构数据的客观存在性与数据无缝融合的困难性,使得空间信息数据和业务过程中其他文件的有效管理与共享存在很多问题。本文基于GIS技术从多源异构数据的分类,数据目录树与各类数据节点的创建,数据的读取,数据的提取,符号化与出图等方面进行了研究与实验,为多源异构数据的管理与共享提供了一种方法。  相似文献   

13.
Abstract

Big data is a highlighted challenge for many fields with the rapid expansion of large-volume, complex, and fast-growing sources of data. Mining from big data is required for exploring the essence of data and providing meaningful information. To this end, we have previously introduced the theory of physical field to explore relations between objects in data space and proposed a framework of data field to discover the underlying distribution of big data. This paper concerns an overview of big data mining by the use of data field. It mainly discusses the theory of data field and different aspects of applications including feature selection for high-dimensional data, clustering, and the recognition of facial expression in human–computer interaction. In these applications, data field is employed to capture the intrinsic distribution of data objects for selecting meaningful features, fast clustering, and describing variation of facial expression. It is expected that our contributions would help overcome the problems in accordance with big data.  相似文献   

14.
基于SOAP的海量空间数据服务   总被引:1,自引:1,他引:0  
随着网络GIS应用需求的迅速增长,为海量空间数据建立高速的共享机制已经成为研究热点。提供了基于SOAP的海量空间数据服务方案,将空间数据服务分为两种应用类型,即使用GML用于数据量小的空间数据服务和FTP处理数据量大的空间数据服务。通过在AM/FM系统中应用实践及分析,使用这种方案不仅可以解决数据共享与集成,而且能够为目前的GIS应用提供功能完整、稳定可靠的数据服务。  相似文献   

15.
提出了一种建立在数据颗粒引力基础上的图像分类方法,此方法使用的数据颗粒质量是图像的特征(如图像的分形维)。对于每一类别训练数据颗粒集,图像特征采用训练数据颗粒集中几幅图像特征的均值mi,用训练数据颗粒集的像幅数wi作为它的权重,那么第i个训练数据颗粒集的质量为wi mi,而待检验数据颗粒是原子数据颗粒,其质量为1。假定待检验一幅图像数据颗粒j的特征为tmj,那么第i个训练数据颗粒集与待检验一幅图像的数据颗粒j之间的距离为|mi-tmj|。假定有3种不同类别的图像,从各类别中取出一部分图像组成3类训练数据颗粒集,求得每类数据颗粒集特征的均值和一幅待检验数据颗粒的特征值,按公式计算每类数据颗粒集对待检验数据颗粒的引力,3个引力中具有最大引力的类别即为待检验数据颗粒的类别。实验结果表明,基于数据引力的图像分类方法具有一定的优势。  相似文献   

16.
地图矢量数据处理研究   总被引:1,自引:0,他引:1  
本文以1:250万中华人民共和国大型挂图的制作研究中的数据格式转换为实例,重点讨论全数字制图环境下多源海量数据的提取和格式转换等问题,为数字地图新产品的开发提供了数据基础。根据制图基础数据的特点确定了把源数据Coverage层转化为CorelD raw能接收的DXF格式的数据转换方法,详细讨论了利用Arc/Info进行矢量数据的转换、投影变换的过程,包括数据合并、投影变换、数据提取、点状要素处理、拓扑关系的建立、比例尺控制、图层套和、数据输出等处理。  相似文献   

17.
Open data strategies are being adopted in disaster-related data particularly because of the need to provide information on global targets and indicators for implementation of the Sendai Framework for Disaster Risk Reduction 2015–2030. In all phases of disaster risk management including forecasting, emergency response and post-disaster reconstruction, the need for interconnected multidisciplinary open data for collaborative reporting as well as study and analysis are apparent, in order to determine disaster impact data in timely and reportable manner. The extraordinary progress in computing and information technology in the past decade, such as broad local and wide-area network connectivity (e.g. Internet), high-performance computing, service and cloud computing, big data methods and mobile devices, provides the technical foundation for connecting open data to support disaster risk research. A new generation of disaster data infrastructure based on interconnected open data is evolving rapidly. There are two levels in the conceptual model of Linked Open Data for Global Disaster Risk Research (LODGD) Working Group of the Committee on Data for Science and Technology (CODATA), which is the Committee on Data of the International Council for Science (ICSU): data characterization and data connection. In data characterization, the knowledge about disaster taxonomy and data dependency on disaster events requires specific scientific study as it aims to understand and present the correlation between specific disaster events and scientific data through the integration of literature analysis and semantic knowledge discovery. Data connection concepts deal with technical methods to connect distributed data resources identified by data characterization of disaster type. In the science community, interconnected open data for disaster risk impact assessment are beginning to influence how disaster data are shared, and this will need to extend data coverage and provide better ways of utilizing data across domains where innovation and integration are now necessarily needed.  相似文献   

18.
对矢量地理数据脆弱水印进行研究,提出一种用于精确认证的矢量地理数据脆弱水印算法.利用数据自身的特征映射生成脆弱水印,并基于量化思想将数据点自身和相邻数据点的水印信息嵌入到数据点上.通过脆弱水印检测对矢量地理数据的任何篡改进行检测定位,实现针对矢量地理数据的精确认证.实验结果表明,该算法在不破坏原始数据精度和可视化效果的同时,能够有效检测出矢量地理数据中的数据修改、增点、删点、裁剪等篡改,并能将篡改精确定位到数据点.  相似文献   

19.
FME在空间数据加工项目中的应用   总被引:1,自引:0,他引:1  
针对福建电信数据加工项目,介绍了如何利用基于语义的数据转换处理软件FME,实现各种繁杂空间数据处理,包括开发数据格式插件、集成的数据批处理程序,为空间数据加工项目提供了一个很好的思路。  相似文献   

20.
为了解决空间数据集成、检索和访问的问题,从数据提供者和数据使用者2个角度出发,提出了建立具有统一集成、检索和访问接口的空间数据访问组件。该组件针对数据提供者提供统一的集成接口,实现了以ArcSDE为例的空间数据引擎和以REST服务为例的Web Service引擎,建立了针对第三方空间数据引擎和Web Service空间数据源集成方法。该组件内部构建了空间数据处理模块和Web Service数据处理模块,与空间数据集成接口相互协作完成集成并处理空间数据源的任务。同时,针对数据使用者提供了空间数据检索和访问功能,在空间数据检索接口中实现了基于要素的检索方法,能对集成后的空间数据进行快速的查询检索,达到空间数据共享、访问的目的。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号