首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   100篇
  免费   30篇
  国内免费   7篇
测绘学   48篇
大气科学   2篇
地球物理   39篇
地质学   22篇
海洋学   5篇
天文学   2篇
综合类   11篇
自然地理   8篇
  2022年   3篇
  2020年   8篇
  2019年   7篇
  2018年   2篇
  2017年   7篇
  2016年   19篇
  2015年   14篇
  2014年   15篇
  2013年   11篇
  2012年   15篇
  2011年   10篇
  2010年   13篇
  2009年   9篇
  2008年   2篇
  2007年   1篇
  2006年   1篇
排序方式: 共有137条查询结果,搜索用时 31 毫秒
111.
随着航空航天遥感技术的不断发展,以遥感影像为代表的栅格数据分辨率越来越高,遥感影像处理呈现出数据量大、复杂度高的特点。近年来,通用GPU的运算性能不断提高为加速密集运算提供了新的途径,目前,采用GPU并行技术进行遥感影像处理成为新的研究热点。本文提出了基于GPU并行计算的巨幅遥感影像坐标转换方法,实践证明,相比于传统的转换方法基于GPU的算法有较为明显的提速。  相似文献   
112.
113.
As an important spatiotemporal simulation approach and an effective tool for developing and examining spatial optimization strategies (e.g., land allocation and planning), geospatial cellular automata (CA) models often require multiple data layers and consist of complicated algorithms in order to deal with the complex dynamic processes of interest and the intricate relationships and interactions between the processes and their driving factors. Also, massive amount of data may be used in CA simulations as high-resolution geospatial and non-spatial data are widely available. Thus, geospatial CA models can be both computationally intensive and data intensive, demanding extensive length of computing time and vast memory space. Based on a hybrid parallelism that combines processes with discrete memory and threads with global memory, we developed a parallel geospatial CA model for urban growth simulation over the heterogeneous computer architecture composed of multiple central processing units (CPUs) and graphics processing units (GPUs). Experiments with the datasets of California showed that the overall computing time for a 50-year simulation dropped from 13,647 seconds on a single CPU to 32 seconds using 64 GPU/CPU nodes. We conclude that the hybrid parallelism of geospatial CA over the emerging heterogeneous computer architectures provides scalable solutions to enabling complex simulations and optimizations with massive amount of data that were previously infeasible, sometimes impossible, using individual computing approaches.  相似文献   
114.
传统的基于CPU的串行程序所实现的二维DCT变换算法时间复杂度高变换效率低,难以满足许多应用的实时要求.特别是在当代以嵌入式处理器为核心的移动端信息处理终端,有限的CPU性能更加难以实现快速的DCT变换.值得欣慰的是新一代嵌入式处理器提供了支持GPGPU技术的GPU,为解决复杂的移动计算问题提供了高效的并行化解决途径.基于最新的ARM Cortex-A15内嵌GPU Mali-T604及OpenCL框架设计实现了一种针对二维DCT变换的并行化加速方案并实测了优化效果,实验结果表明文中的并行方案能够提高二维DCT变换的效率,在输人数据量足够大的条件下能够达到近20倍的加速比.  相似文献   
115.
高胜  曾琪明  焦健  梁存任  童庆禧 《测绘科学》2015,40(1):85-88,67
作为InSAR处理中的重要操作,干涉图滤波是比较耗时的步骤之一。针对广泛应用的Goldstein滤波算法,文章设计了一种基于GPU的滤波加速方法,定量评价了滤波效果,并探讨了基于GPU加速的滤波时间与数据大小和滤波窗口大小的关系,讨论了当前GPU的核心设计在并行计算中的缺点。在取得与CPU处理结果相同精度的前提下,此方法获得大约22倍的加速比。  相似文献   
116.
一种面向现代GPU的大规模地形渲染技术   总被引:1,自引:0,他引:1  
将地形数据均匀地划分为分页,通过基于视点的预加载方法和分页缓冲池管理技术实现海量地形数据的实时调度.沿用LOD算法基本思想,将已加载的分页再划分为若干个分块,以分块为单位进行批量渲染,并把不同细节等级分块之间的裂缝处理提前至预处理阶段进行,减少CPU的实时运算量.实验表明,该算法能使CPU与GPU之间更协调的工作,实现了大规模三维地形的高效渲染.  相似文献   
117.
基于GPU加速的高分辨率实体体素化研究   总被引:2,自引:0,他引:2  
体素化是面图形学通向体图形学的桥梁,具有广泛且重要的应用。介绍体素化方面的研究进展,分析现有体素化方法在处理高分辨率实体体素化时的不足。提出以分块为基础的高分辨率实体体素化算法:在分块内部,采用基于图形处理器(Graphics Processing Unit,GPU)的切面光栅法对分块表面体素化过程进行加速,采用射线求交方式生成种子并进行块内填充;在分块之间,设计了3方向的种子扩散面及跨块扩散机制,避免因分块而导致的大量几何求交运算,提高了效率。针对高分辨率实体体素化结果数据量大的问题,采用低分辨率表面体素化结果进行数据压缩和索引,节省了数据存储空间。测试结果表明,该文提出的算法不仅能够进行高分辨率实体体素化,而且在GIS、地学建模和CAD等体图形学相关的领域具有重要的应用价值。  相似文献   
118.
实际地下储层是含流体的双相介质,常规的弹性波叠前逆时偏移多基于单相介质理论,不能充分考虑地层中的双相介质对地震波场的影响。为研究双相介质中地震波传播对逆时偏移结果的影响,基于Biot的双相介质理论实现了一阶速度-应力双相介质方程的逆时偏移,并基于CUDA实现了双相介质方程逆时偏移的GPU加速。模型实验结果表明,在含流体的双相介质中,双相介质方程逆时偏移的结果比弹性波方程和声波方程的结果更接近真实的构造形态,同时与基于CPU的双相介质逆时偏移相比,基于GPU的逆时偏移可达到27倍的加速比。因此基于GPU加速的双相介质逆时偏移不仅能够实现对双相介质地层的精确偏移成像,而且能够有效提高逆时偏移的计算效率。  相似文献   
119.
杜克平  薛坤 《湖泊科学》2016,28(3):654-660
水体辐射传输方程是复杂的微积分方程,只能利用数值方法求解,如Monte Carlo光线追踪法、不变嵌入法、离散坐标法等,其中,Monte Carlo方法是目前解决水体水下光场三维问题的唯一有效方法.根据辐射传输理论,开发了水下光场的Monte Carlo模拟模型,主要包含大气、水-气界面、层化水体和水底边界4个模块.实现了模拟任意太阳角度、不同水体固有光学属性和任意深度条件下,考虑大气、粗糙水面和水底边界的水下光场,能够获取辐亮度、辐照度等辐射量的空间分布.该模型暂不考虑Raman散射、偏振、内部光源的影响.实现了GPU加速水下光场Monte Carlo模拟,并用Mobley等提出的海洋光学标准问题中的问题1~6进行验证.在两种计算环境下,通过对不同边界条件下的CPU、GPU运行时间及加速比的对比,发现GPU计算可以达到几百至上千倍的加速比.  相似文献   
120.
王宗辰  原野  李宏伟 《海洋通报》2020,39(2):200-205
地震海啸通常发生在大洋板块向陆地板块俯冲的区域,距离震源最近的国家和地区往往在震后5~20 min之内就会遭受到海啸袭击。因此,及时的海啸预警和准确的海啸预报结果对于民众和决策者都至关重要。为了提升海啸预警效率,缩短海啸预报时间,本研究对COMCOT海啸数值模型进行了基于图形计算单元GPU的二次并行开发。将原模型中海啸传播计算模块通过CUDA_C语言编写内核函数整体移植到GPU上并行加速,CPU负责模型其他代码的执行。为了减少CPU和GPU之间的数据通信,将吸收边界和变量更新函数一并改写。仅在需要输出的时间节点,GPU向CPU传递结果,其他时间步长,CPU和GPU之间只有指令和少量参数传输,基本可视为零耗时。基于GPU并行加速的COMCOT较串行版本效率提升超过67倍,加速性能显著优于基于CPU共享内存的OpenMP并行版本。交叉使用常水深和真实地形,采用均匀滑移海啸源和有限元海啸源对模型的计算结果进行了较为全面的分析检验,相对误差最大不超过1%,为大范围的越洋海啸实时计算提供了有力工具。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号