首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   39篇
  免费   2篇
  国内免费   5篇
测绘学   17篇
地球物理   5篇
地质学   10篇
海洋学   3篇
天文学   1篇
综合类   6篇
自然地理   4篇
  2022年   1篇
  2021年   1篇
  2020年   6篇
  2019年   1篇
  2018年   1篇
  2017年   2篇
  2015年   4篇
  2014年   6篇
  2013年   1篇
  2012年   6篇
  2011年   8篇
  2010年   5篇
  2009年   4篇
排序方式: 共有46条查询结果,搜索用时 31 毫秒
1.
This paper focuses on the efficiency of finite discrete element method (FDEM) algorithmic procedures in massive computers and analyzes the time-consuming part of contact detection and interaction computations in the numerical solution. A detailed operable GPU parallel procedure was designed for the element node force calculation, contact detection, and contact interaction with thread allocation and data access based on the CUDA computing. The emphasis is on the parallel optimization of time-consuming contact detection based on load balance and GPU architecture. A CUDA FDEM parallel program was developed with the overall speedup ratio over 53 times after the fracture from the efficiency and fidelity performance test of models of in situ stress, UCS, and BD simulations in Intel i7-7700K CPU and the NVIDIA TITAN Z GPU. The CUDA FDEM parallel computing improves the computational efficiency significantly compared with the CPU-based ones with the same reliability, providing conditions for achieving larger-scale simulations of fracture.  相似文献   
2.
本文简述了CUDA编程模型高性能并行计算的特性,在实现了基于GPU的数字影像正射纠正的基础上,阐述了基于GPU的加速技术在数字影像处理方面的应用情景.  相似文献   
3.
赵海娜  吴远峰  张兵 《遥感学报》2014,18(Z1):49-55
高光谱图像经过辐射校正后,消除了探测元的响应差异,能更好地满足专题信息提取的数据要求.利用探测元的列均值、列标准差等统计信息对天宫一号高光谱短波红外数据进行辐射校正检验,并基于GPU CUDA计算模型对均值归一化、矩匹配、相邻列均衡等3种相对辐射校正算法进行了并行计算优化.通过辐射校正计算流程拆分,CPU控制流程逻辑,GPU执行数据级并行计算,并建立CUDA的计算单元与数据单元的映射关系,获得5—7倍的计算加速比,这些辐射校正算法依据图像自身统计信息,且易于进行并行计算优化,满足实时校正的处理时效要求,为未来高光谱数据在轨实时辐射校正提供了新思路.  相似文献   
4.
S63标准采用Blowfish算法对原始海图数据加密后发行,数据的解密成为电子海图系统数据转换和更新中一个耗时的过程。为提高数据处理的速度,针对Blowfish分组密码算法的特点,提出一种利用图形处理器(GPU)的海图并行解密算法,并采用数据传输和处理的同步技术进行了优化。测试表明,采用GPU的并行解密算法是纯CPU串行处理的9.8倍。该算法不仅可大大加快海图数据转换和更新过程,对地理信息系统海量数据处理也有一定的借鉴价值。  相似文献   
5.
分布式水文模型的GPU并行化及快速模拟技术   总被引:1,自引:0,他引:1       下载免费PDF全文
刘永和  冯锦明  徐文鹏 《水文》2015,35(4):20-26
分布式水文模型对流域水文过程的应用深度及广度不断加深,常与数值天气及气候预报相结合,面临巨大的计算量。近年来GPU技术的进步使普通电脑能够实现高效而又廉价的并行计算。提出了资料插值、单元产流以及单元汇流采用GPU并行计算,马斯京根法河道汇流采用一种非并行的递归方法。基于笔记本电脑和NVIDIA GPU/CUDA结合C#语言,由分布式新安江模型在沂河流域的模拟应用表明,降水量空间插值及新安江产流的并行执行效率为普通CPU上C#的8~9倍。使用直接递归法实现马斯京根汇流演算比以往采用汇流次序表的执行效率提升0.5~0.9倍。  相似文献   
6.
针对传统PlanchouDarbous算法采用递归执行方式导致处理效率低下等问题,该文提出了一种适合基于CUDA的GPU并行执行的DEM洼地填充算法。此算法采用淹没-排水思路,多次推进式扫描完成排水;在串行执行和并行执行两种方式下,算法处理有所差异,其中串行算法代码更短;串行算法的时间复杂度为O(n),测试结果表明串行执行时快于PlanchonDarboux算法,且在CUDA环境下的并行执行用时不到串行执行用时的一半。算法思路简单,易于编程实现。  相似文献   
7.
提出了一种基于多图形处理器(graphic processing unit,GPU)设计思想的Harris角点检测并行算法,使用众多线程将计算中耗时的影像高斯卷积平滑滤波部分改造成单指令多线程(single instruction multi-ple thread,SIMT)模式,并采用GPU中共享存储器、常数存储器和锁页内存机制在统一计算设备架构(com-pute unified device archetecture,CUDA)上完成影像角点检测的全过程。实验结果表明,基于多GPU的Har-ris角点检测并行算法比CPU上的串行算法可获得最高达60倍的加速比,其执行效率明显提高,对于大规模数据处理呈现出良好的实时处理能力。  相似文献   
8.
Boussinesq波浪模型是一类相位解析模型,在时域内求解需要较高的空间和时间分辨率以保证计算精度。为提高计算效率,有必要针对该类模型开展并行算法的研究。与传统的中央处理器(CPU)相比,图形处理器(GPU)有大量的运算器,可显著提高计算效率。基于统一计算设备架构CUDA C语言和图形处理器,实现了Boussinesq模型的并行运算。将本模型的计算结果同CPU数值模拟结果和解析解相比较,发现得到的结果基本一致。同时也比较了CPU端与GPU端的计算效率,结果表明,GPU数值模型的计算效率有明显提升,并且伴随数值网格的增多,提升效果更为明显。  相似文献   
9.
高分辨率遥感图像处理经常面临程序执行时间过长和内存空间不足的问题,虽然并行计算技术可以提高遥感图像的处理速度,但是无法降低算法占用的巨大内存空间。为了解决这一问题,本文提出了一种利用CUDA和内存映射文件的高分辨率遥感图像快速处理方法,并以K-Means算法为例进行了实现。其中,CUDA技术可以有效利用GPU强大的并行计算能力,而内存映射文件技术降低了磁盘I/O速度较慢对算法性能的影响。实验结果表明,本文方法比传统K-Means聚类算法计算速度提高了30倍左右,内存使用量降低了90%以上。  相似文献   
10.
The continually increasing size of geospatial data sets poses a computational challenge when conducting interactive visual analytics using conventional desktop-based visualization tools. In recent decades, improvements in parallel visualization using state-of-the-art computing techniques have significantly enhanced our capacity to analyse massive geospatial data sets. However, only a few strategies have been developed to maximize the utilization of parallel computing resources to support interactive visualization. In particular, an efficient visualization intensity prediction component is lacking from most existing parallel visualization frameworks. In this study, we propose a data-driven view-dependent visualization intensity prediction method, which can dynamically predict the visualization intensity based on the distribution patterns of spatio-temporal data. The predicted results are used to schedule the allocation of visualization tasks. We integrated this strategy with a parallel visualization system deployed in a compute unified device architecture (CUDA)-enabled graphical processing units (GPUs) cloud. To evaluate the flexibility of this strategy, we performed experiments using dust storm data sets produced from a regional climate model. The results of the experiments showed that the proposed method yields stable and accurate prediction results with acceptable computational overheads under different types of interactive visualization operations. The results also showed that our strategy improves the overall visualization efficiency by incorporating intensity-based scheduling.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号