SLURM 安装与配置
SLURM 介绍
SLURM 是一个可用于大型计算节点集群的高度可伸缩的集群管理器和作业调度系统。SLURM 维护着一个待处理工作的队列并管理此工作的整体资源利用。SLURM 将作业分发给一组已分配的节点来执行。
本质上,SLURM 是一个强健的集群管理器,它高度可移植、可伸缩至大型节点集群、容错好,而且更重要的是它是开源的。
关于 SLURM 的架构可以参考 http://slurm.schedmd.com/
安装 SLURM
这里安装都是以在CentOS6.5上安装为例。并且因为 SLURM 是在集群中使用,所以我们这里假定有三台相同版本的linux,机器名分别为mycentos6x,mycentos6x1和mycentos6x2,其中 mycentos6x 作为控制节点。
安装 MUNGE
首先 SLURM 需要使用 MUNGE 来认证,所以我们要先来安装 MUNGE。
从 MUNGE(https://github.com/dun/munge) 的官方网站下载安装包,这里使用 munge-0.5.11.tar.bz2 文件。使用 root 用户运行下面命令
编译并安装 munge 包
# rpmbuild -tb --clean munge-0.5.11.tar.bz2# cd /root/rpmbuild/RPMS/x86_64# rpm --install munge*.rpm
- 1
- 2
- 3
在编译rpm包和安装的过程中可能会提示需要一些第三方的软件包,此时可以使用 “yum install -y xxx” 来安装,我在安装的时候就是先安装了下面的软件包
# yum install -y rpm-build rpmdevtools bzip2-devel openssl-devel zlib-devel
- 1
安装完成后,需要修改下面这些文件的权限
# chmod -Rf 700 /etc/munge# chmod -Rf 711 /var/lib/munge# chmod -Rf 700 /var/log/munge# chmod -Rf 0755 /var/run/munge
- 1
- 2
- 3
- 4
另外需要注意的是检查一下/etc/munge/munge.key文件,文件的 owner 和 group 必须是 munge,否则启动会失败。
安装完成后,就可以启动 munge 服务了
# /etc/init.d/munge start
- 1
最后,需要把 /etc/munge/munge.key 复制到另外两台机器上,并确保文件权限和属主都相同。
安装 SLURM
首先创建slurm用户
# useradd slurm# passwd slurm
- 1
- 2
访问 SLURM(http://slurm.schedmd.com/)下载安装包,这里使用 slurm-14.11.8.tar.bz2 安装包。
编译并安装 slurm 包
# rpmbuild -ta --clean slurm-14.11.8.tar.bz2# cd /root/rpmbuild/RPMS/x86_64# rpm --install slurm*.rpm
- 1
- 2
- 3
在编译rpm包和安装的过程中提示我安装了下面的软件包
# yum install -y readline-devel pam-devel perl-DBI perl-ExtUtils-MakeMaker
- 1
安装完成后,修改下面命令的属组
# sudo chown slurm:slurm /var/spool
- 1
到这里,SLURM的安装就完成了,但是还不能启动,我们还需要做一下配置才可以启动slurm服务并提交作业。
配置 SLURM
进入/etc/slurm/目录,复制slurm.conf.example文件成slurm.conf,然后编辑/etc/slurm/slurm.conf文件
下面是我的文件中修改的部分
ControlMachine=mycentos6xControlAddr=192.168.145.100SlurmUser=slurmSelectType=select/cons_resSelectTypeParameters=CR_CoreSlurmctldDebug=3SlurmctldLogFile=/var/log/slurmctld.logSlurmdDebug=3SlurmdLogFile=/var/log/slurmd.logNodeName=mycentos6x,mycentos6x1,mycentos6x2 CPUs=4 RealMemory=500 Sockets=2 CoresPerSocket=2 ThreadsPerCore=1 State=IDLEPartitionName=control Nodes=mycentos6x Default=YES MaxTime=INFINITE State=UPPartitionName=compute Nodes=mycentos6x1,mycentos6x2 Default=NO MaxTime=INFINITE State=UP
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
注:这里需要将此配置文件部署到集群里的每台机器上。
保存文件,然后使用下面命令启动slurm服务
# /etc/init.d/slurm start
- 1
测试
在启动了slurm服务之后,我们可以使用下面一些命令来查看集群状态并提交作业
# sinfoPARTITION AVAIL TIMELIMIT NODES STATE NODELISTcontrol* up infinite 1 idle mycentos6xcompute up infinite 2 idle mycentos6x1,mycentos6x2
- 1
- 2
- 3
- 4
# scontrol show slurm reportsActive Steps = NONEActual CPUs = 2Actual Boards = 1Actual sockets = 1Actual cores = 2Actual threads per core = 1Actual real memory = 1464 MBActual temp disk space = 29644 MBBoot time = 2015-07-22T09:50:34Hostname = mycentos6xLast slurmctld msg time = 2015-07-22T09:50:37Slurmd PID = 27755Slurmd Debug = 3Slurmd Logfile = /var/log/slurmd.logVersion = 14.11.8
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
# scontrol show config# scontrol show partition# scontrol show node# scontrol show jobs
- 1
- 2
- 3
- 4
提交作业
# srun hostnamemycentos6x
- 1
- 2
# srun -N 3 -l hostname0: mycentos6x1: mycentos6x12: mycentos6x2
- 1
- 2
- 3
- 4
# srun sleep 60 &
- 1
查询作业
# squeue -a JOBID PARTITION NAME USER ST TIME NODES NODELIST(REASON) 77 debug sleep kongxx R 0:06 1 mycentos6x
- 1
- 2
- 3
取消作业
# scancel <job_id>
- 1
参考:
SLURM:http://slurm.schedmd.com/
MUNGE: https://github.com/dun/munge
转载请以链接形式标明本文地址
本文地址:http://blog.csdn.net/kongxx/article/details/48173829