首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 203 毫秒
1.
基于MPI的TOUGHREACT并行性能分析   总被引:1,自引:1,他引:0       下载免费PDF全文
反应运移模拟在实际应用中的主要制约因素是其计算量巨大,对模拟程序并行化可以拓展反应运移模拟的应用范围。在阐述反应运移模拟耦合过程的基础上,介绍了TOUGHREACT基于MPI的并行实现方法。以ECO2N模块为例,通过分析程序的流程图、加速比和并行效率,探讨TOUGHREACT并行程序的计算性能,并通过加密网格的方式对其加速效果进行验证。结果表明:基于MPI的TOUGHREACT并行程序采用METIS区域分解方法和AZTEC并行迭代解法器库,有效地实现了对TOUGHREACT的并行加速;在计算集群上调用2~128个处理器时,可以达到2.00~68.09倍的相对加速,显著提高了程序的计算效率;网格的剖分精度越高,该程序的并行效果就越好,表明该程序对复杂问题的并行加速效果更优。  相似文献   

2.
基于PC机群波动方程叠前深度偏移的并行计算策略   总被引:2,自引:0,他引:2  
基于波动方程的叠前深度偏移技术是解决复杂地质地貌地区地震成像的一种非常有效的手段,但是在实际应用中面临着数据量巨大和计算量巨大的双重困难.以PC 机集群为硬件环境,以MPI消息传递并行编程环境为并行程序设计平台,研究设计出请求分配作业的主从模式来实现波动方程叠前深度偏移的并行计算,从而解决了动态负载均衡难题,采用的作业登记与分析技术解决了容错处理问题.理论模型数据和实际地震资料测试结果表明:程序运行稳定,并行效率高.对我国东部地区某三维地震数据进行了处理,用请求分配作业的主从模式比平均分配作业的主从模式节省了23.68%的时间.  相似文献   

3.
数字黑河的思考与实践1:为流域科学服务的数字流域   总被引:7,自引:5,他引:2  
多学科数据的收集和积累、多学科模型的集成以及现代化的观测系统是发展流域科学的必要前提。"数字黑河"是为黑河流域科学研究和流域集成管理而搭建的集数据、模型和观测系统于一体的信息化平台,是"数字地球"在流域尺度上的一次实践性尝试。数字黑河由数据平台、模型平台和数字化观测系统组成,其核心是观测、数据和模型平台中的信息基础设施建设,但同时也外延而扩展为以流域综合模型为骨架的各种应用。"数字黑河"已阶段性地完成了数据集成,在线数据量超过1 000 GB,并实现了完全共享,有力地支持了黑河流域的各项研究工作;在模型集成方面已初步建成了流域综合模型和空间决策支持系统。"数字黑河"的进一步构想是在e-Science的框架下将数据系统、观测系统、模型系统、信息发布系统、高性能计算及科学计算可视化集成为一个整体。  相似文献   

4.
王晓睿  张振  贾晓风 《地球科学》2015,40(12):2119-2124
随着岩土工程规模的不断扩大、复杂性的增加以及计算参数的多样化和计算精度的提高, 人们对于计算机计算能力的要求越来越高, 然而单处理器无法满足这类大规模计算.从数据输入、区域分解、线性方程组的迭代求解、后处理等方面详细阐述高性能计算平台上并行有限元求解大规模岩土工程的关键问题.提出了利用MPI2的新特性进行海量数据的分段并行读入, 采用ParMetis软件并行地进行区域分解, 实现了前处理过程的完全并行化; 采用基于Jacobi预处理技术的预处理共轭梯度法(PCG)进行线性方程组的并行迭代求解; 采用Paraview软件实现了后处理的并行可视化.在深腾7000系统上对某隧道工程的三维开挖过程进行了数值模拟, 对其并行性能进行了分析和评价, 验证了采用的区域分解算法和系统方程组的求解方法的可行性, 并且具有较高的加速比和并行效率.   相似文献   

5.
基于MPI的分布式水循环模型并行计算性能研究   总被引:1,自引:0,他引:1  
为满足分布式水文模型快速模拟的需要,引入并行计算技术。基于MPI编程模型实现了WEP-L分布式水循环模型产流模块的并行编程,采取子流域任务划分和对等模式实现了模型的并行设计。为了减少进程间的通信时间,在产流计算之前,数据按随年、月、日变化以及不随时间变化分成四类,分批进行通信;产流计算完成之后,采用聚合通信方式中的数据收集,快速统计结果。模型并行化后应用于黄河流域,结果如下:(1)随着参与计算的进程数增加,并行计算的加速比呈先增加后减少的趋势,并行效率随进程数增加呈线性下降趋势。(2)模型并行性能受通信开销制约,当通信开销增量大于产流计算时间减少量时,加速比达到峰值4.8。  相似文献   

6.
地震波场频率域正演是频率域全波形反演的基础。针对反演计算量巨大的问题,利用频率域二维波形正演算法中频率和炮点计算的独立性,开发出粗细粒度结合的MPI并行算法:粗粒度为频率并行,细粒度为单个频率解方程并行。实现方法是将正演频率分组放入不同的MPI通讯域内,每个通讯域内单个频率求解方程过程,采用基于MPI的MUMPS(多波前大规模并行稀疏直接解法器)软件包并行加速。模型测试结果表明:MPI多通讯域并行算法计算结果正确,计算效率显著提高,加速效果稳定。  相似文献   

7.
周雪  于平  翁爱华  陈瑞鼎 《世界地质》2018,37(3):897-904
为提高重力及重力梯度数据的正演效率,笔者引入基于MPI (Message Passing Interface)和OpenMP (Open Multi-Processing)的并行计算,通过对比分析不同数据规模的网格数和模型体个数对并行效率和加速比的影响,得出随着正演数据规模的增加,并行效率和加速比均得到提高。同时对比了基于MPI和基于OpenMP的两种并行方式的性能,结果表明,重力及重力梯度数据正演的并行计算中MPI的提速能力优于OpenMP,且在较大规模数据的正演计算中基于MPI的并行效率优于基于OpenMP的并行效率。  相似文献   

8.
黄河数字流域模型的建立和应用   总被引:5,自引:3,他引:5       下载免费PDF全文
黄河数字流域模型是“数字黄河”的重要组成部分,在数字流域模型框架下,以坡面为基本单元,建立了包括植被截留、融雪、地表蓄滞、表层土蓄滞、中层土蓄滞和深层土蓄滞共6层的产流模型.模型在垂向上考虑3层出流:地表超渗产流、表层土侧向渗流和中层土侧向渗流,既反映当前的降水过程,又体现前期降水过程和土壤前期含水量的影响,比较适合黄河流域的产流特点.在坡面产流的基础上,还给出了坡面单元侵蚀产沙公式,用于建立流域产沙数学模型.应用建立的模型,给出了3个计算实例:黄河全流域水量计算、小花区间汛期洪水模拟和多沙粗沙区产沙计算.实践表明:建立的模型基本具备了在黄河全流域进行降雨-径流模拟、侵蚀产沙计算的功能,辅以降雨预报模块则可进行洪水预报.  相似文献   

9.
MPI(Message Passing Interface)是消息传递并行程序设计的标准之一,概述了MPI的概念和组成,着重介绍了支持并行程序设计的消息传递接口(MPI)以及在MPI环境下的并行程序设计方法,并给出一个MPI并行程序设计实例,说明了MPI的程序设计流程和主从并行计算流程,由此提出了一个Master/Slave结构的设计模式。  相似文献   

10.
<正>本文从麦克斯韦方程组出发,用加权余量法推导了磁场源情况下的变分方程,用六面体对研究区域进行剖分,然后在单元内进行线性插值,最后得到总体刚度矩阵。用Fortran编程实现了三维大地电磁正演程序,最后通过模型计算结果对比,验证了程序的正确性;用前人模型进行计算,并与其结果对比,二者一致。基于MPI实现了频点间的并行,对一个三维模型进行计算,并行后开启16进程时  相似文献   

11.
The distinct lattice spring model (DLSM) is a newly developed numerical tool for modeling rock dynamics problems, i.e. dynamic failure and wave propagation. In this paper, parallelization of DLSM is presented. With the development of parallel computing technologies in both hardware and software, parallelization of a code is becoming easier than before. There are many available choices now. In this paper, Open Multi‐Processing (OpenMP) with multicore personal computer (PC) and message passing interface (MPI) with cluster are selected as the environments to parallelize DLSM. Performances of these parallel DLSM codes are tested on different computers. It is found that the parallel DLSM code with OpenMP can reach a maximum speed‐up of 4.68× on a quad‐core PC. The parallel DLSM code with MPI can achieve a speed‐up of 40.886× when 256 CPUs are used on a cluster. At the end of this paper, a high‐resolution model with four million particles, which is too big to handle by the serial code, is simulated by using the parallel DLSM code on a cluster. It is concluded that the parallelization of DLSM is successful. Copyright © 2011 John Wiley & Sons, Ltd.  相似文献   

12.
基于MPI的机群并行计算系统平台构建   总被引:4,自引:1,他引:4  
在高性能计算机领域,机群并行系统已成为一种重要的系统结构。这里介绍了机群并行系统的特点和发展现状;给出了将PC机或工作站通过高速以太网连接,使用TCP/IP作为标准的通信协议,利用MPI作为分布式的并行计算软件环境,在Windows平台和Unix平台上搭建用户自己的PC机群系统的两种方法;还给出了MPI安装中需要注意的关键步骤。实践表明,PC机群系统具有高性能、高可用性和极高的性价比。  相似文献   

13.
茹忠亮  李明田 《岩土力学》2006,27(Z1):751-754
将Monte-Carlo随机方法与并行有限元方法结合,设计了基于PC机群的并行随机有限元算法,每一次随机模拟产生一个随机场,作为一个样本,代入有限元进行稳定性计算,发挥并行有限元计算量大、计算速度快的特点,克服了Monte-Carlo方法计算时间长的缺点。用C++语言结合MPI消息传递接口开发了相应的计算软件,计算了1 000个随机样本的边坡可靠度问题,验证了程序的可靠性及高效性。  相似文献   

14.
基于MPI的快速富里叶变换并行算法   总被引:1,自引:1,他引:0  
随着并行计算技术的快速发展 ,数据处理、信息处理等应用领域处理问题规模的日益增大 ,对并行计算的需求也越来越迫切。这里给出一种基于可移植消息传递界面 (MPI)标准的一维快速富里叶变换并行算法 ,可应用于分布式存储并行计算机系统  相似文献   

15.
This paper describes an implementation of a highly scalable parallel computational facility with high speedup efficiency using relatively low-cost hardware, which consists of a cluster of desktop personal computers (PCs) connected via a 10-Gigabit Ethernet. Two-levels of parallelization were implemented. Communication between different PCs was achieved using message passing interface (MPI) protocol. Domain decomposition was automated and based on element numbering. Domain continuity was assured largely by re-numbering the elements using a “front squasher” code prior to decomposition. Within each PC, the shared memory parallelization was implemented using either the open-multiprocessing (OpenMP) or the MPI protocol. Analysis of three different problems with number of degrees-of-freedom ranging from about 129,000 to about 2,260,000 shows a speedup efficiency generally above 70%. Super-linear speedup was achieved in several of the cases examined in this study, with the hybrid MPI-OpenMP approach generally performing better compared to the pure MPI method for parallelization. The results demonstrate the feasibility of acquiring a parallel computing facility with relatively modest outlay that is within the reach of consulting or engineering offices.  相似文献   

16.
数字孪生流域是数字孪生地球的重要组成部分, 厘清数字孪生流域理论定义和内涵是研究和建设数字孪生流域的前提和基础, 对流域智慧化治理管理具有重要意义。本文基于数字孪生理论技术, 开展了以下研究: ①给出了数字孪生流域的定义, 认为数字孪生流域是以服务流域全生命周期管理的全量数据和领域知识驱动物理流域和虚拟流域交互映射、共智进化、虚实融合的新基建新范式, 并辨析了与传统建模仿真的区别。②数字孪生流域内涵是通过"由实入虚"、"以虚映实"和"由虚控实"实现物理流域对象的全生命周期管控, 特征包括高度保真、演化自治、实时同步、闭环互动和共生进化。③数字孪生流域基本模型由物理流域、虚拟流域、实时连接交互、数字赋能服务、孪生流域数据和孪生流域知识组成, 其核心能力包括物理流域感知操控、全要素数字化表达、实景可视动态呈现、流域数据融合供给、流域知识融合供给、流域模拟仿真推演及孪生自主学习优化。④提出数字孪生流域要解决的关键科学问题和关键技术体系, 并从感知网、数据网、知识网、模型网及服务网展望了数字孪生流域发展方向, 阐述了数字孪生流域的赋能领域。本文旨在通过数字孪生流域理论新型研究范式为数字孪生流域技术应用落地提供理论指导, 对未来智慧流域研究和数字技术在流域治理管理中的应用提供有益的启发与借鉴。  相似文献   

17.
并行模拟技术在苏锡常地区地下水流模型建立中的应用   总被引:1,自引:1,他引:1  
在苏锡常地区建立了一般意义上的重叠型多个不规则子域FEM并行模型,然后利用区域分解法在MPI环境中实现了并行求解算法,并使用C++完成了MPI环境中的混合编程设计。通过常州无锡两地实际并、串行应用结果比较,并行模拟具有数据资料准备相对简单且精度高的特点,是解决大型化、复杂化地下水流问题的一种可行方案。  相似文献   

18.
在瞬变电磁测深反演中运用并行技术可以减少计算时间,提高反演的运算效率。MPI(Message Passing Interface)是目前最重要的并行编程工具,它具有移植性好、功能强大、效率高等多种优点。这里基于在Windows系统下使用FORTRAN和MPICH2相结合的开发工具,编写瞬变电磁并行算法程序,对瞬变电磁一维采用直接反演法,通过理论模型对该算法进行试算,计算结果证明了该算法的正确性、高效性和稳定性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号