首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   62366篇
  免费   6208篇
  国内免费   8087篇
测绘学   3317篇
大气科学   9038篇
地球物理   13843篇
地质学   26752篇
海洋学   6454篇
天文学   7624篇
综合类   3670篇
自然地理   5963篇
  2023年   604篇
  2022年   1632篇
  2021年   2024篇
  2020年   1678篇
  2019年   1949篇
  2018年   2507篇
  2017年   2358篇
  2016年   2746篇
  2015年   2137篇
  2014年   2853篇
  2013年   3461篇
  2012年   2778篇
  2011年   3152篇
  2010年   3102篇
  2009年   3257篇
  2008年   2952篇
  2007年   2841篇
  2006年   2460篇
  2005年   2074篇
  2004年   1771篇
  2003年   1704篇
  2002年   1665篇
  2001年   1646篇
  2000年   1783篇
  1999年   2026篇
  1998年   1699篇
  1997年   1721篇
  1996年   1501篇
  1995年   1382篇
  1994年   1254篇
  1993年   1088篇
  1992年   947篇
  1991年   807篇
  1990年   702篇
  1989年   651篇
  1988年   613篇
  1987年   517篇
  1986年   468篇
  1985年   520篇
  1984年   513篇
  1983年   519篇
  1982年   480篇
  1981年   423篇
  1980年   443篇
  1979年   357篇
  1978年   313篇
  1977年   305篇
  1976年   272篇
  1975年   266篇
  1974年   271篇
排序方式: 共有10000条查询结果,搜索用时 0 毫秒
951.
The demand for analysis of large‐scale data has increased with increased access to spatial vector data. Polygon overlay of vector data in a virtual globe requires proprietary data structures and proprietary analysis algorithms. A vector data structure is designed for rapid polygon overlay in a virtual globe by recording the metadata of the triangles (TriMeta) that constitute polygons. A polygon overlay algorithm is proposed based on this data structure. The overlay of two complex GIS polygons is transformed into the intersection computation of their 3D triangular presentations. The intersection computation of two sets of triangles is reduced considerably by utilizing TriMeta to filter out the disjoint triangle pairs and rapidly identify the contained triangle. The new method improves the overlay efficiency in a virtual globe because the amount of computation required to calculate the intersections of two large polygons and drape the intersections onto a terrain surface is reduced.  相似文献   
952.
Reverse geocoding, which transforms machine‐readable GPS coordinates into human‐readable location information, is widely used in a variety of location‐based services and analysis. The output quality of reverse geocoding is critical because it can greatly impact these services provided to end‐users. We argue that the output of reverse geocoding should be spatially close to and topologically correct with respect to the input coordinates, contain multiple suggestions ranked by a uniform standard, and incorporate GPS uncertainties. However, existing reverse geocoding systems often fail to fulfill these aims. To further improve the reverse geocoding process, we propose a probabilistic framework that includes: (1) a new workflow that can adapt all existing address models and unitizes distance and topology relations among retrieved reference data for candidate selections; (2) an advanced scoring mechanism that quantifies characteristics of the entire workflow and orders candidates according to their likelihood of being the best candidate; and (3) a novel algorithm that derives statistical surfaces for input GPS uncertainties and propagates such uncertainties into final output lists. The efficiency of the proposed approaches is demonstrated through comparisons to the four commercial reverse geocoding systems and through human judgments. We envision that more advanced reverse geocoding output ranking algorithms specific to different application scenarios can be built upon this work.  相似文献   
953.
Small‐area patch merging is a common operation in land use data generalization. However, existing research on small‐area patch merging has mainly focused on local compatibility measures, which often lead to area imbalances among land use types from a global perspective. To address the shortcomings of previous studies by resolving local and global concerns simultaneously, this article proposes a merging method that considers both local constraints and the overall area balance. First, a local optimization model that considers three constraints—namely, the areas of neighboring patches, the lengths of shared arcs, and semantic similarity—is established. The areas of small patches are first pre‐allocated. Subsequently, in accordance with an area change threshold for individual land use types, land use types with area changes that exceed this threshold are identified. The patches corresponding to these land use types are subjected to iterative adjustments while considering the overall area balance. Based on their area splitting abilities, the split lines for small‐area patches are determined, and small‐area patches are merged. Finally, actual data from Guangdong Province are used for validation. The experimental results demonstrate that the proposed method is capable of preserving the local compatibility of patches while balancing the overall area associated with each land use type.  相似文献   
954.
ABSTRACT

Earth observations and model simulations are generating big multidimensional array-based raster data. However, it is difficult to efficiently query these big raster data due to the inconsistency among the geospatial raster data model, distributed physical data storage model, and the data pipeline in distributed computing frameworks. To efficiently process big geospatial data, this paper proposes a three-layer hierarchical indexing strategy to optimize Apache Spark with Hadoop Distributed File System (HDFS) from the following aspects: (1) improve I/O efficiency by adopting the chunking data structure; (2) keep the workload balance and high data locality by building the global index (k-d tree); (3) enable Spark and HDFS to natively support geospatial raster data formats (e.g., HDF4, NetCDF4, GeoTiff) by building the local index (hash table); (4) index the in-memory data to further improve geospatial data queries; (5) develop a data repartition strategy to tune the query parallelism while keeping high data locality. The above strategies are implemented by developing the customized RDDs, and evaluated by comparing the performance with that of Spark SQL and SciSpark. The proposed indexing strategy can be applied to other distributed frameworks or cloud-based computing systems to natively support big geospatial data query with high efficiency.  相似文献   
955.
车辆轨迹数据的道路信息提取是地理信息领域的热点也是难点之一,深度学习的快速发展为该问题的解决提供了一种思路与方法。本文针对车辆轨迹数据的车行道级道路提取问题,引入深度学习领域的生成式对抗网络,利用残差网络构建深层网络和多尺度感受野感知轨迹数据不同细节特征,构建了基于条件生成式对抗网络的轨迹方向约束下车行道级道路提取模型。首先提出了朝向-颜色映射栅格化转换方法,实现轨迹朝向信息向HSV颜色空间的转换;然后利用样本数据学习模型参数;最后将训练模型应用到郑州、成都、南京3个试验区域提取车行道级道路数据。试验结果表明,本文方法能够有效地提取完整的车行道级道路数据。  相似文献   
956.
人工建设用地(包括建筑物、道路、广场等社会服务设施)的识别一直是用来监测地区发展速度的一个有效途径。针对目前在人工建设用地识别领域中对在建建筑物的忽视问题,利用中性集、均值漂移以及绿度因子等概念将在建建设用地信息进行增强,进而将其成功识别出来。实验证明,该方法对高分辨率遥感影像的人工建设用地识别是可行的。通过分析2009—2013年期间北川新城的建设工地面积及分布的变化情况可以看出,北川新城在2010—2013年期间完工面积占2009—2010年新建工程总面积的98.17%,在北川新城拓展区又新建0.6 km2的工程,施工迅速,为受灾居民提供了良好的居住和生活保障。  相似文献   
957.
基于原始观测值的单频精密单点定位算法   总被引:1,自引:0,他引:1  
王利  张勤  涂锐  刘站科 《测绘学报》2015,44(1):19-25
研究了一种基于GPS原始观测值的单频PPP算法。该算法通过增加电离层延迟先验信息、空间和时间约束的虚拟观测方程,将电离层延迟当作未知参数与其他定位参数一并进行估计来高效修正电离层延迟误差。通过使用全球178个IGS站1d的实测数据对本算法的收敛速度、定位精度和电离层VTEC的精度进行检验与分析。结果表明,该算法的收敛速度和稳定性均得到了改善,其静态单频单天PPP解的精度可达2~3cm、模拟动态单频单天PPP解的精度可达2~3dm,并且单频PPP与双频PPP提取的电离层总电子含量平均偏差小于5个TECU,可作为一种附属定位产品使用。  相似文献   
958.
刘立  刘娟  陈宏宇  李维庆 《测绘通报》2020,(1):107-110+114
针对自然资源全要素调查工作中分类标准不同、调查口径不同、调查方法不同,造成的各部门调查软件平台重复开发建设和调查数据结果地理信息特征表达不清晰等问题,本文结合自然资源全要素野外调查工作的实际需要,以山水林田湖草生命共同体为统一对象,构建了自然资源语义化特征模型,提出了表征不同自然资源类型的自适应野外调查方法,实现了灵活性高、性能优异的自然资源调查技术平台,形成了统一的自然资源全要素野外调查框架,可以有效提升多门类自然资源基础调查、专业调查、动态调查的能力与水平,为自然资源治理能力现代化提供了可靠技术保障。  相似文献   
959.
针对多源地理空间矢量数据多来源、难以集成综合利用这一现状,本文提出了多源地理空间矢量数据关联方法,并以此为基础构建了多源地理空间矢量数据关联的可视与计算查询系统。首先,对多源地理空间矢量数据关联的概念及分类进行了定义。然后,以此为基础,提出了关联关系构建技术:自适应四叉树编码技术、扫描线技术、几何匹配及语义匹配技术。最后,为实现关联关系的直观展示,设计了原型系统。关联技术的提出可建立起多源地理空间矢量数据之间的关联关系,原型系统的构建也为用户综合利用多源地理空间矢量数据提供了平台,提高了数据的利用率及数据查询的效能。  相似文献   
960.
随着信息技术的发展和GIS的实际发展需求的增加,GIS逐渐转向了三维地理信息网络服务方向。在满足GIS服务发展需求的基础上,三维地理信息网络服务为空间信息的高效集成的实现作出了重要贡献。本文综述了三维地理信息网络服务的发展情况,并提出了存在的问题及相应的建议,以供参考。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号