您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 企业文化 > MPI并行程序设计自学教程
2020年3月1/55并行程序设计简介曙光信息产业(北京)有限公司2020年3月2/55讲座内容提示基本概念基本的MPI点到点通信(Pointtopoint)MPI中API的主要内容,为MPI最基本,最重要的内容MPI程序的编译和运行实例2020年3月3/55参考文献MPI--thecompletereference.MarcSnir,MITPress,2019.ISBN0262692155,0262692163.UsingMPI:portableparallelprogrammingwiththemessage-passinginterface,WilliamGropp,MITPress,2019.2ndedition.ISBN0262571323.UsingMPI-2:advancedfeaturesofthemessage-passinginterface.WilliamGropp,MITPress,2019.ISBN0262571331.高性能计算并行编程技术-MPI并行程序设计,都志辉,清华大学出版社,2019年8月。2020年3月4/55多线程库标准–Win32API.–POSIXthreads.编译制导标准–OpenMP–可移植共享存储并行编程标准.消息传递库标准–MPI–PVM并行编程标准本讨论的重点2020年3月5/55消息传递并行程序设计消息传递并行程序设计指用户必须通过显式地发送和接收消息来实现处理机间的数据交换。在这种并行编程中,每个并行进程均有自己独立的地址空间,相互之间访问不能直接进行,必须通过显式的消息传递来实现。这种编程方式是大规模并行处理机(MPP)和机群(Cluster)采用的主要编程方式。并行计算粒度大,特别适合于大规模可扩展并行算法由于消息传递程序设计要求用户很好地分解问题,组织不同进程间的数据交换,并行计算粒度大,特别适合于大规模可扩展并行算法.消息传递是当前并行计算领域的一个非常重要的并行程序设计方式2020年3月6/55什么是MPI?MassagePassingInterface:是消息传递函数库的标准规范,由MPI论坛开发,支持Fortran和C一种新的库描述,不是一种语言。共有上百个函数调用接口,在Fortran和C语言中可以直接对这些函数进行调用MPI是一种标准或规范的代表,而不是特指某一个对它的具体实现MPI是一种消息传递编程模型,并成为这种编程模型的代表和事实上的标准2020年3月7/55MPI的发展过程发展的两个阶段MPI1.1:2019MPICH:是MPI最流行的非专利实现,由Argonne国家实验室和密西西比州立大学联合开发,具有更好的可移植性.MPI1.2~2.0:动态进程,并行I/O,远程存储访问、支持F90和C++(2019).2020年3月8/55为什么要用MPI?高可移植性MPI已在IBMPC机上、MSWindows上、所有主要的Unix工作站上和所有主流的并行机上得到实现。使用MPI作消息传递的C或Fortran并行程序可不加改变地运行在IBMPC、MSWindows、Unix工作站、以及各种并行机上。2020年3月9/55:从简单入手—Init和Finalize下面我们首先分别以C语言和Fortran语言的形式给出一个最简单的MPI并行程序Hello(下页).该程序在终端打印出HelloWorld!字样.“HelloWorld”:一声来自新生儿的问候.2020年3月10/55Helloworld(C)#includestdio.h#includempi.h“main(intargc,char*argv[]){MPI_Init(&argc,&argv);printf(Hello,world!\n);MPI_Finalize();}2020年3月11/55Helloworld(Fortran)programmaininclude‘mpif.h’integerierrcallMPI_INIT(ierr)print*,'Hello,world!'callMPI_FINALIZE(ierr)end2020年3月12/55C和Fortran中MPI函数约定C必须包含mpi.h.MPI函数返回出错代码或MPI_SUCCESS成功标志.MPI-前缀,且只有MPI以及MPI_标志后的第一个字母大写,其余小写.Fortran必须包含mpif.h.通过子函数形式调用MPI,函数最后一个参数为返回值.MPI-前缀,且函数名全部为大写.MPI函数的参数被标志为以下三种类型:IN:参数在例程的调用中不会被修正.OUT:参数在例程的调用中可能会被修正.INOUT:参数有初始值,且在例程的调用中可能会被修正2020年3月13/55MPI初始化-MPI_INITintMPI_Init(int*argc,char**argv)MPI_INIT(IERROR)MPI_INIT是MPI程序的第一个调用,它完成MPI程序的所有初始化工作。所有的MPI程序的第一条可执行语句都是这条语句。启动MPI环境,标志并行代码的开始.并行代码之前,第一个mpi函数(除MPI_Initialized()外).要求main必须带参数运行,否则出错.2020年3月14/55MPI结束-MPI_FINALIZEintMPI_Finalize(void)MPI_FINALIZE(IERROR)MPI_FINALIZE是MPI程序的最后一个调用,它结束MPI程序的运行,它是MPI程序的最后一条可执行语句,否则程序的运行结果是不可预知的。标志并行代码的结束,结束除主进程外其它进程.之后串行代码仍可在主进程(rank=0)上运行(如果必须).2020年3月15/55MPI程序的的编译与运行mpif77hello.f或mpicchello.c默认生成a.out的可执行代码.mpif77–ohellohello.f或mpicc–ohellohello.c生成hello的可执行代码.mpirun–np4a.outmpirun–np4hello4指定np的实参,表示进程数,由用户指定.a.out/hello要运行的MPI并行程序.%小写o%np:Thenumberofprocess.2020年3月16/55:运行我们的MPI程序![dairnode01~]$mpicc-ohellohello.c[dairnode01~]$./hello()[0]Abortingprogram!Couldnotcreatep4procgroup.Possiblemissingfileorprogramstartedwithoutmpirun.[dairnode01~]$mpirun-np4hello()HelloWorld!HelloWorld!HelloWorld!HelloWorld![dairnode01~]$计算机打印字符我们输入的命令2020年3月17/55:Hello是如何被执行的?SPMD:SingleProgramMultipleData(SIMD)::::#includempi.h#includestdio.hmain(intargc,char*argv[]){MPI_Init(&argc,&argv);printf(Hello,world!\n);MPI_Finalize();}#includempi.h#includestdio.hmain(intargc,char*argv[]){MPI_Init(&argc,&argv);printf(Hello,world!\n);MPI_Finalize();}#includempi.h#includestdio.hmain(intargc,char*argv[]){MPI_Init(&argc,&argv);printf(Hello,world!\n);MPI_Finalize();}#includempi.h#includestdio.hmain(intargc,char*argv[]){MPI_Init(&argc,&argv);printf(Hello,world!\n);MPI_Finalize();}HelloWorld!HelloWorld!HelloWorld!HelloWorld!#includempi.h#includestdio.hmain(intargc,char*argv[]){MPI_Init(&argc,&argv);printf(Hello,world!\n);MPI_Finalize();}rsh\ssh2020年3月18/55:开始写MPI并行程序—Comm_size和Comm_rank在写MPI程序时,我们常需要知道以下两个问题的答案:任务由多少个进程来进行并行计算?我是哪一个进程?2020年3月19/55MPI提供了下列函数来回答这些问题:用MPI_Comm_size获得进程个数pintMPI_Comm_size(MPI_Commcomm,int*size);用MPI_Comm_rank获得进程的一个叫rank的值,该rank值为0到p-1间的整数,相当于进程的IDintMPI_Comm_rank(MPI_Commcomm,int*rank);2020年3月20/55更新的HelloWorld(c)#includestdio.h#includempi.hmain(intargc,char*argv[]){intmyid,numprocs;MPI_Init(&argc,&argv);MPI_Comm_rank(MPI_COMM_WORLD,&myid);MPI_Comm_size(MPI_COMM_WORLD,&numprocs);printf(“Iam%dof%d\n,myid,numprocs);MPI_Finalize();}2020年3月21/55更新的HelloWorld(F77)programmaininclude‘mpif.h’integerierr,myid,numprocscallMPI_INIT(ierr)callMPI_COMM_RANK(MPI_COMM_WORLD,myid,ierr)callMPI_COMM_SIZE(MPI_COMM_WORLD,numprocs,ierr)print*,‘Iam',myid,‘of',numprocscallMPI_FINALIZE(ierr)end2020年3月22/55:运行结果[dairnode01~]$mpicc–ohello1hello1.c[dairnode01~]$mpirun-np4hello1Iam0of4Iam1of4Iam2of4Iam3of4[dairnode01~]$计算机打印字符我们输入的命令2020年3月23/55:写MPI并行通信程序--Send和Recv进程0rank=0..Send()...进程1rank=1进程2rank=2进程3rank=3..Send().....Send().....Recv()...Greeting执行过程2020年3月24/55有消息传递greetings(c)#includestdio.h#includempi.hmain(intargc,char*argv[]){intnumprocs,myid,source;MPI_Statusstatus;charmessage[100];MPI_Init(&argc,&argv);MPI_Comm_rank(MPI_COMM_WORLD,&myid);MPI_Comm_size(MPI_COMM_WORLD,&numprocs);2020年3月25/55有消息传递greetings(c)if(myid!=0){strcpy(message,HelloWorld!);MPI_Send(message,strlen(message)+1,MPI_CHAR,0,99,MPI_COMM_WORLD);}else{/*myi
本文标题:MPI并行程序设计自学教程
链接地址:https://www.777doc.com/doc-4315082 .html