首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 109 毫秒
1.
伪谱和高阶有限差分混合方法, 在垂直方向采用交错网格有限差分算子, 利用其并行程度高的特点, 在水平方向采用伪谱算子, 保留其高精度的优势, 是计算地震波场的有效方法. 图形处理器(graphic processing unit, 简写为GPU) 由于其高度并行性, 在计算此类问题中有显著的优势. 由英伟达(NVIDIA)公司推出的统一计算设备架构(compute unified device architecture, 简写为CUDA)平台极大地简化了GPU编程的难度. 为提高计算效率, 本文实现了基于CUDA 平台的混合方法二维地震波场模拟. 然后基于二维均匀介质模型将CPU与GPU版本的运行时间进行对比. 实际测试结果表明, 基于CUDA 的并行模拟方法在保证计算精度的同时显著地提高了计算速度, 为开展大规模非均匀地球介质地震波传播数值模拟提供了一种可选的方法.   相似文献   

2.
基于Abaqus软件的并行计算集群平台构建与优化方法   总被引:1,自引:0,他引:1  
根据有限元显式算法和隐式算法的特点,研究了岩土工程动力分析并行计算集群系统的硬件要求、集群系统的构建方法,构建了基于EM64T硬件构架、双路Intel Xeon处理器、Linux操作系统和64位Abaqus软件的32CPU并行计算集群平台,测试了存储子系统对集群性能的影响,比较了两种千兆以太网络作为、集群子网络的性能优化方法。以地下结构的地震反应分析为例,测试了优化前后该集群系统的计算速度,发现两种以太网络性能优化方法都可以有效提高集群计算速度。列举了该集群系统在深水桥梁基础流固耦合动力分析、地下结构地震反应分析和快速轨道交通环境振动分析中的应用,显示了该集群在显式算法、隐式算法及小规模、大规模数值计算问题中的并行计算效率,证明所构建的Abaqus数值模拟并行计算集群平台能够满足计算规模、计算精度和时效性的要求。  相似文献   

3.
作为高精度波形反演或逆时偏移的重要组成部分,地震波数值模拟对计算速度和效率提出了更高要求.GPU通用计算技术的产生及其内在数据并行性,为高效地震波数值模拟应用和研究得以有效开展奠定了基础.本文借助交错网格的Fourier伪谱微分矩阵算子和GPU上高效矩阵乘法,实现了复杂介质中地震波模拟的高效算法.数值试验表明,优化后的GPU计算相比CPU单核计算在大规模二维地震波场计算中获得至少100x以上的加速比.这对我们快速分析目标反射层在地震剖面中同相轴位置,制定优化采集方案具有重要意义.  相似文献   

4.
本文介绍地震波场高阶有限差分正演及其GPU计算问题,通过数值模拟技术实现地震波正演。对于声波方程,利用泰勒级数展开式得出波动方程的高阶有限差分格式及其离散表达式。运用C++语言和CUDA编写二维和三维GPU正演程序,使用共享存储器提升GPU线程间通信传输速度,并且改善了三维模型情况下共享存储器容量对有限差分阶数的限制问题。建立不同尺度模型针对二维和三维GPU正演程序和CPU正演程序进行计算测试,比较两个程序的计算效率。测试结果表明,无论是在二维和三维的模型下,GPU正演程序的计算耗时都远远小于CPU正演程序的计算耗时,且随着计算数据量的增大,加速效果越来越显著,测试结果可以很好地证明GPU程序相对于单CPU程序计算的高效性。   相似文献   

5.
基于GPU的HASM动态模拟与实时渲染方法   总被引:1,自引:0,他引:1  
 基于微分几何曲面论的高精度曲面模拟(high accuracy surface modeling, HASM)需要大量的复杂密集计算,在CPU上模拟极为耗时,使得在现有的硬件条件下,实时动态模拟曲面并实时可视化极具挑战性。论文提出了GPU加速的HASM方法,充分利用现代显示适配器(graphic processor unit, GPU)技术,运用GPU最新发展起来的并行计算能力,使用并行化的预处理共轭梯度方法解算曲面,完成曲面模拟,并同时利用GPU的高速缓存架构,对渲染操作进行充分优化,以实现高效实时可视化。HASM需要的有限差分离散和高速解算操作,均充分利用现代GPU架构,所具有的多处理器和众多的流处理器所产生的强大并行计算能力,可视化也用GPU高速缓存技术和三角条带方法进行充分优化。数值实验和实际项目区高程模拟实验均表明, 在GPU为NVIDIA quadro 2000和CPU为DualCore Intel Core 2 Duo E8400的硬件配置下,GPU并行化的曲面模拟方法比普通方法速度提高了约10倍,使得动态模拟与可视化算法可以达到交互式的帧速及实时可视化的要求。  相似文献   

6.
Boussinesq波浪模型是一类相位解析模型,在时域内求解需要较高的空间和时间分辨率以保证计算精度。为提高计算效率,有必要针对该类模型开展并行算法的研究。与传统的中央处理器(CPU)相比,图形处理器(GPU)有大量的运算器,可显著提高计算效率。基于统一计算设备架构CUDA C语言和图形处理器,实现了Boussinesq模型的并行运算。将本模型的计算结果同CPU数值模拟结果和解析解相比较,发现得到的结果基本一致。同时也比较了CPU端与GPU端的计算效率,结果表明,GPU数值模型的计算效率有明显提升,并且伴随数值网格的增多,提升效果更为明显。  相似文献   

7.
油气勘探地震资料处理GPU/CPU协同并行计算   总被引:7,自引:3,他引:4       下载免费PDF全文
随着图形处理器(Graphic Processing Unit: GPU)在通用计算领域的日趋成熟,使GPU/CPU协同并行计算应用到油气勘探地震资料处理中,对诸多大规模计算的关键性环节有重大提升.本文阐明协同并行计算机的思路、架构及编程环境, 着重分析其计算效率得以大幅度提升的关键所在.文中以地震资料处理中的叠前时间偏移和Gazdag深度偏移为切入点,展示样机测试结果的图像显示.显而易见,生产实践中,时常面临对诸多算法进行算法精度和计算速度之间的折中选择.本文阐明GPU/CPU样机协同计算具有高并行度,进而可在算法精度与计算速度的优化配置协调上获得广阔空间.笔者认为,本文的台式协同并行机研制思路及架构,或可作为地球物理配置高性能计算机全新选择的一项依据.  相似文献   

8.
大规模遥感影像全球金字塔并行构建方法   总被引:2,自引:0,他引:2  
金字塔模型是大规模遥感影像可视化的基础,是在保证精度的前提下,采用不同分辨率的数据来提高渲染速度,从而在网络环境下实现大规模数据共享、服务和辅助决策支持。在构造金字塔的过程中,由于遥感数据经常会突破内存的容量,同时会产生大量的小瓦片,小瓦片存贮非常耗时,传统的串行算法很难满足应用需求。本文提出了一种并行大规模遥感影像的全球金字塔构造算法,利用图形处理器(graphics processing unit,GPU)的高带宽完成费时的重采样计算,使用多线程实现数据的输入和输出,在普通的计算机上实现大规模影像的全球金字塔的快速构建。首先,采用二级分解策略突破GPU、CPU和磁盘的存储瓶颈;然后,利用多线程策略加速数据在内存和磁盘之间的传输,并采用锁页内存来消除GPU全局延迟的影响;最后,用GPU完成大规模的并行重采样计算,并利用四叉树策略提高显存中数据的重复利用率。实验结果表明,本文方法可以明显地提高全球金字塔的构造速度。  相似文献   

9.
三维自由面流动模拟中GPU并行计算技术   总被引:1,自引:0,他引:1  
MPS(Moving Particle Semi-implicit)法能够有效地处理溃坝、晃荡等自由面大变形流动问题。在三维MPS方法中,粒子数量的急剧增加会导致其计算效率的降低并限制其在大规模流动问题中的应用。基于自主开发的MPS求解器MLParticleSJTU,本文对求解过程中耗时最多的邻居粒子搜寻和泊松方程求解两个模块采用了GPU并行加速,详细探讨了CPU+GPU策略。以三维晃荡和三维溃坝这两种典型的自由面大变形流动为例,比较了CPU+GPU相对于MLParticle-SJTU串行求解时的加速情况,结果表明CPU+GPU在邻居粒子和泊松方程这两个模块中的加速比最高能达到十倍左右。此外,采用CPU+GPU并行能够较准确地模拟溃坝、晃荡等自由面大变形问题。  相似文献   

10.
水面的模拟历来都是一个难题。近几年,随着图形处理器(GPU)的迅速发展,它的功能不再局限于图形处理,而是进入到了通用计算领域,所以可以利用GPU的并行计算优势来加速水面的模拟过程。本文研究的主要内容是海浪的实时模拟绘制。海浪渲染算法使用了投影网格技术,使用CUDA并行计算方法对投影网格顶点坐标的计算进行加速,比较使用CPU进行大数据量计算和使用GPU进行大数据量计算的速度差异。最终,改进后的程序渲染速度大幅提高,使得程序可以在生成更逼真画面的同时保持令人满意的帧率。  相似文献   

11.
ZY-3 is the first high-accuracy civil stereo-mapping optical satellite of China. It greatly improves China’s optical satellite image resolution with a boom in data volume, calling for new challenges in processing real-time applications. On the other hand, using central processing unit (CPU)/graphic processing unit (GPU) to resolve data-intensive remote sensing problems becomes a hot issue. In this paper, we present an approach for CPU/GPU near real-time preprocessing of ZY-3 satellite images, focusing on three key processors: relative radiometric correction (RRC), modulation transfer function compensation (MTFC), and geocorrection (GC). First, basic GPU implementation issues are addressed to make the processors capable of processing with GPU. Second, three effective GPU specific optimizations are applied for further improvement of the GPU performance. Furthermore, to fully exploit the CPU’s computing horsepower within the system, a CPU/GPU workload distribution scheme is proposed, in which CPU undertakes partial computation to share the workloads of GPU. The experimental result shows that our approach achieved an overall 48.84-fold speedup ratio in ZY-3 nadir image preprocessing (the corresponding run time is 11.60 s for one image), which is capable of meeting the requirement of near real-time response to the applications that follow. In addition, with the supportability of IEEE 754–2008 floating-point standard in the Fermi type GPU, preprocessing ZY-3 images with our CPU/GPU processors could maintain the quality of image preprocess as done traditionally with CPU processors.  相似文献   

12.
Soil–structure interaction problems are commonly encountered in engineering practice, and the resulting linear systems of equations are difficult to solve due to the significant material stiffness contrast. In this study, a novel partitioned block preconditioner in conjunction with the Krylov subspace iterative method symmetric quasiminimal residual is proposed to solve such linear equations. The performance of these investigated preconditioners is evaluated and compared on both the CPU architecture and the hybrid CPU–graphics processing units (GPU) computing environment. On the hybrid CPU–GPU computing platform, the capability of GPU in parallel implementation and high-intensity floating point operations is exploited to accelerate the iterative solutions, and particular attention is paid to the matrix–vector multiplications involved in the iterative process. Based on a pile-group foundation example and a tunneling example, numerical results show that the partitioned block preconditioners investigated are very efficient for the soil–structure interaction problems. However, their comparative performances may apparently depend on the computer architecture. When the CPU computer architecture is used, the novel partitioned block symmetric successive over-relaxation preconditioner appears to be the most efficient, but when the hybrid CPU–GPU computer architecture is adopted, it is shown that the inexact block diagonal preconditioners embedded with simple diagonal approximation to the soil block outperform the others.  相似文献   

13.
为了进一步提高叠前时间体偏移的计算效率,实现了在GPU\CPU协同并行计算模式下Kirchhoff叠前时间体偏移技术,并进行优化。经在Nvida Tesla C1060GPU上的测试表明,GPU(Graphic Processing Unit)的处理速度是CPU(单核)的四十倍左右。同时表明,CUDA(Cornpute Unified Device Architectarc)编程为CPU向GPU的转化提供了一个较为方便的语言环境。  相似文献   

14.
方留杨  王密  李德仁  潘俊 《测绘学报》2014,43(6):598-606
本文系统地探讨了使用CPU/GPU协同处理理论对高分辨率卫星影像进行MTF补偿的方法。首先在GPU上对方法进行了基本实现,并通过三种性能优化策略(执行配置优化、存储访问优化和指令优化)进一步提高了方法的执行效率。在Intel Xeon E5650 CPU和NVIDIA Tesla C2050 GPU组成的CPU/GPU系统中对高分一号卫星全色影像进行MTF补偿,加速比达到42.80倍。在此基础上,为充分利用CPU的计算性能,使用CPU/GPU负载分配策略将部分负载分配给CPU进行处理,使用该策略后,方法加速比达到47.82倍,相应的处理时间压缩至1.62s,可满足对高分辨率卫星影像进行近实时MTF补偿的需求。  相似文献   

15.
地震叠前时间偏移的一种图形处理器提速实现方法   总被引:25,自引:11,他引:14       下载免费PDF全文
新近发展的图形处理器(GPU,Graphic Processing Unit)通用计算技术,现已日趋实用成型,并获得诸多应用领域的广泛关注.对油气勘探专项资料处理技术的运用而言,概因GPU与中央处理器(CPU)的计算性能的甚大差异,致使GPU这一通用计算技术在石油工业中的应用研究正在有效开展.本文仅借助于油气勘探中广泛使用的叠前时间偏移,旨在于扼要阐明其基于GPU应用的有效性;文中还提出一种利用GPU实现地震叠前时间偏移的软件构件方法,并针对非对称走时叠前时间偏移所拓展的应用软件提供一种具体实现架构.与以往用个人计算机(PC,Personal Computer)或者PC集群所用的叠前时间偏移相比,本文方法可甚大地提高计算效率,从而在石油物探资料处理中可显著地节约计算成本和维护费用.文中实际例证也表明,基于GPU进行高性能并行计算,当是适应目前石油工业中大规模计算需求的一个重要发展途径.  相似文献   

16.
《国际泥沙研究》2020,35(4):386-394
Sediment transport simulations are important in practical engineering. In this study, a graphics processing unit (GPU)-based numerical model coupling hydrodynamical and morphological processes was developed to simulate water flow, sediment transport, and morphological changes. Aiming at accurately predicting the sediment transport and sediment scouring processes, the model resolved the realistic features of sediment transport and used a GPU-based parallel computing technique to the accelerate calculation. This model was created in the framework of a Godunov-type finite volume scheme to solve the shallow water equations (SWEs). The SWEs were discretized into algebraic equations by the finite volume method. The fluxes of mass and momentum were computed by the Harten, Lax, and van Leer Contact (HLLC) approximate Riemann solver, and the friction source terms were calculated by the proposed a splitting point-implicit method. These values were evaluated using a novel 2D edge-based MUSCL scheme. The code was programmed using C++ and CUDA, which could run on GPUs to substantially accelerate the computation. The aim of the work was to develop a GPU-based numerical model to simulate hydrodynamical and morphological processes. The novelty is the application of the GPU techniques in the numerical model, making it possible to simulate the sediment transport and bed evolution in a high-resolution but efficient manner. The model was applied to two cases to evaluate bed evolution and the effects of the morphological changes on the flood patterns with high resolution. This indicated that the GPU-based high-resolution hydro-geomorphological model was capable of reproducing morphological processes. The computational times for this test case on the GPU and CPU were 298.1 and 4531.2 s, respectively, indicating that the GPU could accelerate the computation 15.2 times. Compared with the traditional CPU high-grid resolution, the proposed GPU-based high-resolution numerical model improved the reconstruction speed more than 2.0–12.83 times for different grid resolutions while remaining computationally efficient.  相似文献   

17.
采用精细结构模型和动力时程分析以提高城市区域建筑震害预测精度已经成为一重要研究方向,而传统的CPU计算平台成本过高,难以推广。本文提出采用基于GPU/CPU协同粗粒度并行计算的方法来实现城市区域建筑震害的高效精细化动力时程计算,可以显著提高效率并降低成本。简述了所采用的程序架构、计算模型、参数选取,对并行计算的效率进行了详细的讨论,并通过一个中等大小城市的案例展示了该方法的优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号