使用VS2019+Intel OneAPI (ifort)+Intel MPI编译和运行MPI程序与Coarray程序
一、安装环境
- 安装vs2019
- 安装Intel OneAPI Base Toolkit中的Intel Fortran Compiler,并勾选与vs2019适配
- 安装Intel OneAPI HPC Toolkit中的Intel MPI
- 运行intel mpi安装目录下
/env/vars.bat
进行环境变量的注册,路径为<install-dir>\mpi\<version>.<update>\env\vars.bat
- 用管理员身份运行
cmd
或者shell
,运行:hydra_service -install
和hydra_service -start
- 继续用管理员身份在
cmd
中运行:mpiexec -register
,输入的用户名为空,密码为电脑的登陆密码 - 运行:
mpiexec -validate
.
二、编译和运行MPI程序
以下是针对Release
程序的设置,如果是Debug
程序,需要相应修改,且只支持x64
程序。
编译:
- 在Fortran—General—Additional Include Directories加入
C:\Program Files (x86)\Intel\oneAPI\mpi\latest\include
,也即mpi的include目录。 - 在Linker—General—Additional Library Directories加入
C:\Program Files (x86)\Intel\oneAPI\mpi\latest\lib
和C:\Program Files (x86)\Intel\oneAPI\mpi\latest\lib\release
. - 在Linker—Input—Additional Dependices加入
impi.lib
运行:在cmd中使用mpiexec即可。
注记:windows下,如果运行exe时提示缺少MKL的dll,那么把linker-libraries-runtime libirary改成default(multithreaded),不要使用DLL.
三、编译和运行Coarray程序
编译:打开项目属性—Fortran—Language,开启Enable Coarrays并输入Coarray Images数量,直接编译。
运行:win系统上鼠标双击即可运行,或者通过cmd运行,别去用mpiexec。
注记:Coarray程序只要安装了Intel MPI就可以运行。
四、使用MKL
如果使用Fortran95编程,想要使用新的MKL Lapack函数,需要在VS2019加入mkl_lapack95_lp64.lib
,其他的也类似处理。在Linux上,需要在编译选项添加-lmkl_lapack95_lp64
.
五、Linux上用PBS启动分布式计算
1. 纯MPI
编写job.pbs
文件如下,使用qsub job.pbs
提交任务。
#PBS -N name #任务的名字
#PBS -l nodes=2:ppn=28 #请求2个节点,每个节点28个核心
#PBS -l walltime=24000:00:00 #运算时间无限
#PBS -q cu1 #节点在cu1队列中
#PBS -o stdout #标准输出到stdout
#PBS -e stderr #标准错误到stderr
#PBS -r y #可运行
#这一个对于纯MPI项目不重要,可写可不写
export I_MPI_JOB_RESPECT_PROCESS_PLACEMENT=off
cd $PBS_O_WORKDIR #进入pbs文件所在目录
#编译
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
rm -r *.mod #删除mod组件
mpirun -np 56 ./main.exe #启动2*28=56个进程
这样就启动了56个进程,正好占用满了所有申请的进程。如果启动的进程数量更少,那么就有空置的进程。
2. 混合MPI/OpenMP
#PBS -N name #任务的名字
#PBS -l nodes=2:ppn=28 #请求2个节点,每个节点28个核心
#PBS -l walltime=24000:00:00 #运算时间无限
#PBS -q cu1 #节点在cu1队列中
#PBS -o stdout #标准输出到stdout
#PBS -e stderr #标准错误到stderr
#PBS -r y #可运行
#禁用PBS系统的进程排布方案,在mpirun显式指定
export I_MPI_JOB_RESPECT_PROCESS_PLACEMENT=off
cd $PBS_O_WORKDIR #进入pbs文件所在目录
#编译
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
/opt/intel/impi/5.0.2.044/intel64/bin/mpiifort *.f90 -O3 -mtune=native -march=native -xHost -m64 -r8 -fpp -ipo -qopt-prefetch=5 -qopenmp -qopenmp-simd -no-wrap-margin -mcmodel=large -fp-model fast=1 -mkl=sequential -lmkl_lapack95_lp64 -o main.exe
rm -r *.mod #删除mod组件
mpirun -np 2 -ppn 1 ./main.exe #启动2个进程,每个node一个进程
这样,一共2个节点,每个节点1个MPI进程,节点内部使用OpenMP共享内存并行。