Slurm(Simple Linux Utility for Resource Management, http://slurm.schedmd.com/ )是开源的、具有容错性和高度可扩展大型和小型Linux集群资源管理和作业调度系统。超级计算系统可利用Slurm进行资源和作业管理,以避免相互干扰,提高运行效率。所有需运行的作业无论是用于程序调试还是业务计算均必须通过交互式并行 srun 、批处理式 sbatch 或分配式 salloc 等命令提交,提交后可以利用相关命令查询作业状态等。请不要在登录节点直接运行作业(编译除外),以免影响其余用户的正常使用。

该文档的针对的Slurm版本为19.05(瀚海20超级计算系统使用)、22.05(瀚海22超级计算系统使用)。

基本概念

三种模式区别

  • 批处理作业(采用 sbatch 命令提交,最常用方式):

    对于批处理作业(提交后立即返回该命令行终端,用户可进行其它操作)使用 sbatch 命令提交作业脚本,作业被调度运行后,在所分配的首个节点上执行作业脚本。在作业脚本中也可使用 srun 命令加载作业任务。提交时采用的命令行终端终止,也不影响作业运行。

  • 交互式作业提交(采用 srun 命令提交):

    资源分配与任务加载两步均通过 srun 命令进行:当在登录shell中执行 srun 命令时, srun 首先向系统提交作业请求并等待资源分配,然后在所分配的节点上加载作业任务。采用该模式,用户在该终端需等待任务结束才能继续其它操作,在作业结束前,如果提交时的命令行终端断开,则任务终止。一般用于短时间小作业测试。

  • 实时分配模式作业(采用 salloc 命令提交):

    分配作业模式类似于交互式作业模式和批处理作业模式的融合。用户需指定所需要的资源条件,向资源管理器提出作业的资源分配请求。提交后,作业处于排队,当用户请求资源被满足时,将在用户提交作业的节点上执行用户所指定的命令,指定的命令执行结束后,作业运行结束,用户申请的资源被释放。在作业结束前,如果提交时的命令行终端断开,则任务终止。典型用途是分配资源并启动一个shell,然后在这个shell中利用 srun 运行并行作业。

    salloc 后面如果没有跟定相应的脚本或可执行文件,则默认选择 /bin/sh ,用户获得了一个合适环境变量的shell环境。

    salloc sbatch 最主要的区别是 salloc 命令资源请求被满足时,直接在提交作业的节点执行相应任务,而 sbatch 则当资源请求被满足时,在分配的第一个节点上执行相应任务。

    salloc 在分配资源后,再执行相应的任务,很适合需要指定运行节点和其它资源限制,并有特定命令的作业。

  • sacct :显示激活的或已完成作业或作业步的记账(对应需缴纳的机时费)信息。

  • salloc :为需实时处理的作业分配资源,典型场景为分配资源并启动一个shell,然后用此shell执行 srun 命令去执行并行任务。

  • sattach :吸附到运行中的作业步的标准输入、输出及出错,通过吸附,使得有能力监控运行中的作业步的IO等。

  • sbatch :提交作业脚本使其运行。此脚本一般也可含有一个或多个 srun 命令启动并行任务。

  • sbcast :将本地存储中的文件传递分配给作业的节点上,比如 /tmp 等本地目录;对于 /home 等共享目录,因各节点已经是同样文件,无需使用。

  • scancel :取消排队或运行中的作业或作业步,还可用于发送任意信号到运行中的作业或作业步中的所有进程。

  • scontrol :显示或设定Slurm作业、队列、节点等状态。

  • sinfo :显示队列或节点状态,具有非常多过滤、排序和格式化等选项。

  • speek :查看作业屏幕输出。注:该命令是本人写的,不是slurm官方命令,在其它系统上不一定有。

  • squeue :显示队列中的作业及作业步状态,含非常多过滤、排序和格式化等选项。

  • srun :实时交互式运行并行作业,一般用于段时间测试,或者与 sallcoc sbatch 结合。

  • 基本术语

  • socket:CPU插槽,可以简单理解为CPU。

  • core:CPU核,单颗CPU可以具有多颗CPU核。

  • job:作业。

  • job step:作业步,单个作业(job)可以有个多作业步。

  • tasks:任务数,单个作业或作业步可有多个任务,一般一个任务需一个CPU核,可理解为所需的CPU核数。

  • rank:秩,如MPI进程号。

  • partition:队列、分区。作业需在特定队列中运行,一般不同队列允许的资源不一样,比如单作业核数等。

  • stdin:标准输入文件,一般指可以通过屏幕输入或采用 <文件名 方式传递给程序的文件,对应C程序中的文件描述符0。

  • stdout:标准输出文件,程序运行正常时输出信息到的文件,一般指输出到屏幕的,并可采用>文件名定向到的文件,对应C程序中的文件描述符1。

  • stderr:标准出错文件,程序运行出错时输出信息到的文件,一般指也输出到屏幕,并可采用2>定向到的文件(注意这里的2),对应C程序中的文件描述符2。

  • 常用参考

  • 作业提交:

  • salloc :为需实时处理的作业分配资源,提交后等获得作业分配的资源后运行,作业结束后返回命令行终端。

  • sbatch :批处理提交,提交后无需等待立即返回命令行终端。

  • srun :运行并行作业,等获得作业分配的资源并运行,作业结束后返回命令行终端。

  • 常用参数:

  • --begin=<time>:设定作业开始运行时间,如--begin=“18:00:00”。

  • --constraints<features>:设定需要的节点特性。

  • --cpu-per-task:需要的CPU核数。

  • --error=<filename>:设定存储出错信息的文件名。

  • --exclude=<names>:设定不采用(即排除)运行的节点。

  • --dependency=<state:jobid>:设定只有当作业号的作业达到某状态时才运行。

  • --exclusive[=user|mcs]:设定排它性运行,不允许该节点有它人或某user用户或mcs的作业同时运行。

  • --export=<name[=value]>:输出环境变量给作业。

  • --gres=<name[:count]>:设定需要的通用资源。

  • --input=<filename>:设定输入文件名。

  • --job-name=<name>:设定作业名。

  • --label:设定输出时前面有标记( 仅限srun )。

  • --mem=<size[unit]>:设定每个节点需要的内存。

  • --mem-per-cpu=<size[unit]>:设定每个分配的CPU所需的内存。

  • -N<minnodes[-maxnodes]>:设定所需要的节点数。

  • -n:设定启动的任务数。

  • --nodelist=<names>:设定需要的特定节点名,格式类似node[1-10,11,13-28]。

  • --output=<filename>:设定存储标准输出信息的文件名。

  • --partition=<name>:设定采用的队列。

  • --qos=<name>:设定采用的服务质量(QOS)。

  • --signal=[B:]<num>[@time]:设定当时间到时发送给作业的信号。

  • --time=<time>:设定作业运行时的墙上时钟限制。

  • --wrap=<command_strings>:将命令封装在一个简单的sh shell中运行( 仅限sbatch )。

  • 服务质量(QoS): sacctmgr

  • sacctmgr list qos sacctmgr show qos :显示QoS

  • 记账信息: sacct

  • --endtime=<time>:设定显示的截止时间之前的作业。

  • --format=<spec>:格式化输出。

  • --name=<jobname>:设定显示作业名的信息。

  • --partition=<name>:设定采用队列的作业信息。

  • --state=<state_list>:显示特定状态的作业信息。

  • scancel :取消作业

  • jobid<job_id_list>:设定作业号。

  • --name=<name>:设定作业名。

  • --partition=<name>:设定采用队列的作业。

  • --qos=<name>:设定采用的服务质量(QOS)的作业。

  • --reservation=<name>:设定采用了预留测略的作业。

  • --nodelist=<name>:设定采用特定节点名的作业,格式类似node[1-10,11,13-28]。

  • squeue :查看作业信息

  • --format=<spec>:格式化输出。

  • --jobid<job_id_list>:设定作业号。

  • --name=<name>:设定作业名。

  • --partition=<name>:设定采用队列的作业。

  • --qos=<name>:设定采用的服务质量(QOS)的作业。

  • --start:显示作业开始时间。

  • --state=<state_list>:显示特定状态的作业信息。

  • scontrol :查看作业、节点和队列等信息

  • --details:显示更详细信息。

  • --oneline:所有信息显示在同一行。

  • show ENTITY ID:显示特定入口信息,ENTITY可为:job、node、partition等,ID可为作业号、节点名、队列名等。

  • update SPECIFICATION:修改特定信息,用户一般只能修改作业的。

  • 显示队列、节点信息:sinfo

    sinfo 可以查看系统存在什么队列、节点及其状态。如 sinfo -l

    PARTITION   AVAIL  TIMELIMIT   JOB_SIZE ROOT OVERSUBS     GROUPS  NODES       STATE NODELIST
    CPU-Large*     up   infinite 1-infinite   no       NO        all    720        idle cnode[001-720]
    GPU-V100       up   infinite 1-infinite   no       NO        all     10        idle gnode[01-10]
    2TB-AEP-Mem    up   infinite 1-infinite   no       NO        all      8       mixed anode[01-08]
    ARM-CPU        up   infinite 1-infinite   no       NO        all      2       down* rnode[01,09]
    ARM-CPU        up   infinite 1-infinite   no       NO        all      2   allocated rnode[02-03]
    ARM-CPU        up   infinite 1-infinite   no       NO        all      5        idle rnode[04-08]
    

    主要输出项

  • AVAIL:up表示可用,down表示不可用。

  • CPUS:各节点上的CPU数。

  • S:C:T:各节点上的CPU插口sockets(S)数(CPU颗数,一颗CPU含有多颗CPU核,以下类似)、CPU核cores(C)数和线程threads(T)数。

  • SOCKETS:各节点CPU插口数,CPU颗数。

  • CORES:各节点CPU核数。

  • THREADS:各节点线程数。

  • GROUPS:可使用的用户组,all表示所有组都可以用。

  • JOB_SIZE:可供用户作业使用的最小和最大节点数,如果只有1个值,则表示最大和最小一样,infinite表示无限制。

  • TIMELIMIT:作业运行墙上时间(walltime,指的是用计时器,如手表或挂钟,度量的实际时间)限制,infinite表示没限制,如有限制的话,其格式为“days-hours:minutes:seconds”。

  • MEMORY:实际内存大小,单位为MB。

  • NODELIST:节点名列表,格式类似node[1-10,11,13-28]。

  • NODES:节点数。

  • NODES(A/I):节点数,状态格式为“available/idle”。

  • NODES(A/I/O/T):节点数,状态格式为“available/idle/other/total”。

  • PARTITION:队列名,后面带有*的,表示此队列为默认队列。

  • ROOT:是否限制资源只能分配给root账户。

  • OVERSUBSCRIBE:是否允许作业分配的资源超过计算资源(如CPU数):

  • no:不允许超额。

  • exclusive:排他的,只能给这些作业用(等价于srun --exclusive)。

  • force:资源总被超额。

  • yes:资源可以被超额。

  • STATE:节点状态,可能的状态包括:

  • allocated、alloc:已分配。

  • completing、comp:完成中。

  • down:宕机。

  • drained、drain:已失去活力。

  • draining、drng:失去活力中。

  • fail:失效。

  • failing、failg:失效中。

  • future、futr:将来可用。

  • idle:空闲,可以接收新作业。

  • maint:保持。

  • mixed:混合,节点在运行作业,但有些空闲CPU核,可接受新作业。

  • perfctrs、npc:因网络性能计数器使用中导致无法使用。

  • power_down、pow_dn:已关机。

  • power_up、pow_up:正在开机中。

  • reserved、resv:预留。

  • unknown、unk:未知原因。

  • 注意,如果状态带有后缀*,表示节点没响应。

  • TMP_DISK:/tmp所在分区空间大小,单位为MB。

  • 主要参数

  • -a、--all:显示全部队列信息,如显示隐藏队列或本组没有使用权的队列。

  • -d、--dead:仅显示无响应或已宕机节点。

  • -e、--exact:精确而不是分组显示显示各节点。

  • --help:显示帮助。

  • -i <seconds>、--iterate=<seconds>:以<seconds>秒间隔持续自动更新显示信息。

  • -l、--long:显示详细信息。

  • -n <nodes>、--nodes=<nodes>:显示<nodes>节点信息。

  • -N, --Node:以每行一个节点方式显示信息,即显示各节点信息。

  • -p <partition>、--partition=<partition>:显示<partition>队列信息。

  • -r、--responding:仅显示响应的节点信息。

  • -R、--list-reasons:显示不响应(down、drained、fail或failing状态)节点的原因。

  • -s:显示摘要信息。

  • -S <sort_list>、--sort=<sort_list>:设定显示信息的排序方式。排序字段参见后面输出格式部分,多个排序字段采用,分隔,字段前面的+和-分表表示升序(默认)或降序。队列字段P前面如有#,表示以Slurm配置文件slurm.conf中的顺序显示。例如:sinfo -S +P,-m表示以队列名升序及内存大小降序排序。

  • -t <states>、--states=<states>:仅显示<states>状态的信息。<states>状态可以为(不区分大小写):ALLOC、ALLOCATED、COMP、COMPLETING、DOWN、DRAIN、DRAINED、DRAINING、ERR、ERROR、FAIL、FUTURE、FUTR、IDLE、MAINT、MIX、MIXED、NO_RESPOND、NPC、PERFCTRS、POWER_DOWN、POWER_UP、RESV、RESERVED、UNK和UNKNOWN。

  • -T, --reservation:仅显示预留资源信息。

  • --usage:显示用法。

  • -v、--verbose:显示冗余信息,即详细信息。

  • -V:显示版本信息。

  • -o <output_format>、--format=<output_format>:按照<output_format>格式输出信息,默认为“%#P %.5a %.10l %.6D %.6t %N”:

  • %all:所有字段信息。

  • %a:队列的状态及是否可用。

  • %A:以“allocated/idle”格式显示状态对应的节点数。

  • %b:激活的特性,参见%f。

  • %B:队列中每个节点可分配给作业的CPU数。

  • %c:各节点CPU数。

  • %C:以“allocated/idle/other/total”格式状态显示CPU数。

  • %d:各节点临时磁盘空间大小,单位为MB。

  • %D:节点数。

  • %e:节点空闲内存。

  • %E:节点无效的原因(down、draine或ddraining状态)。

  • %f:节点可用特性,参见%b。

  • %F:以“allocated/idle/other/total”格式状态的节点数。

  • %g:可以使用此节点的用户组。

  • %G:与节点关联的通用资源(gres)。

  • %h:作业是否能超用计算资源(如CPUs),显示结果可以为yes、no、exclusive或force。

  • %H:节点不可用信息的时间戳。

  • %I:队列作业权重因子。

  • %l:以“days-hours:minutes:seconds”格式显示作业可最长运行时间。

  • %L:以“days-hours:minutes:seconds”格式显示作业默认时间。

  • %m:节点内存,单位MB。

  • %M:抢占模式,可以为no或yes。

  • %n:节点主机名。

  • %N:节点名。

  • %o:节点IP地址。

  • %O:节点负载。

  • %p:队列调度优先级。

  • %P:队列名,带有*为默认队列,参见%R。

  • %R:队列名,不在默认队列后附加*,参见%P。

  • %s:节点最大作业大小。

  • %S:允许分配的节点数。

  • %t:以紧凑格式显示节点状态。

  • %T:以扩展格式显示节点状态。

  • %v:slurmd守护进程版本。

  • %w:节点调度权重。

  • %X:单节点socket数。

  • %Y:单节点CPU核数。

  • %Z:单核进程数。

  • %z:扩展方式显示单节点处理器信息:sockets、cores、threads(S:C:T)数。

  • -O <output_format>, --Format=<output_format>:按照<output_format>格式输出信息,类似-o <output_format>、--format=<output_format>。

    每个字段的格式为“type[:[.]size]”:

  • size:最小字段大小,如没指明,则最大为20个字符。

  • .:指明为右对齐,默认为左对齐。

  • 可用type:

  • all:所有字段信息。

  • allocmem:节点上分配的内存总数,单位MB。

  • allocnodes:允许分配的节点。

  • available:队列的State/availability状态。

  • cpus:各节点CPU数。

  • cpusload:节点负载。

  • freemem:节点可用内存,单位MB。

  • cpusstate:以“allocated/idle/other/total”格式状态的CPU数。

  • cores:单CPU颗CPU核数。

  • disk:各节点临时磁盘空间大小,单位为MB。

  • features:节点可用特性,参见features_act。

  • features_act:激活的特性,参见features。

  • groups:可以使用此节点的用户组。

  • gres:与节点关联的通用资源(gres)。

  • maxcpuspernode:队列中各节点最大可用CPU数。

  • memory:节点内存,单位MB。

  • nodeai:以“allocated/idle”格式显示状态对应的节点数。

  • nodes:节点数。

  • nodeaiot:以“allocated/idle/other/total”格式状态的节点数。

  • nodehost:节点主机名。

  • nodelist:节点名,格式类似node[1-10,11,13-28]。

  • oversubscribe:作业是否能超用计算资源(如CPUs),显示结果可以为yes、no、exclusive或force。

  • partition:队列名,带有*为默认队列,参见%R。

  • partitionname:队列名,默认队列不附加*,参见%P。

  • preemptmode:抢占模式,可以为no或yes。

  • priorityjobfactor:队列作业权重因子。

  • prioritytier或priority:队列调度优先级。

  • reason:节点无效的原因(down、draine或ddraining状态)。

  • size:节点最大作业数。

  • statecompact:紧凑格式节点状态。

  • statelong:扩展格式节点状态。

  • sockets:各节点CPU颗数。

  • socketcorethread:扩展方式显示单节点处理器信息:sockets、cores、threads(S:C:T)数。

  • time:以“days-hours:minutes:seconds”格式显示作业可最长运行时间。

  • timestamp:节点不可用信息的时间戳。

  • threads:CPU核线程数。

  • weight:节点调度权重。

  • version:slurmd守护进程版本。

  • 查看队列中的作业信息:squeue

    显示队列中的作业信息。如squeue显示:

    JOBID PARTITION      NAME     USER ST       TIME  NODES NODELIST(REASON)
     75     ARM-CPU   arm_job     hmli  R       2:27      2 rnode[02-03]
     76    GPU-V100 gpu.slurm     hmli PD       0:00      5 (Resources)
    

    主要输出项

  • JOBID:作业号。

  • PARTITION:队列名(分区名)。

  • NAME:作业名。

  • USER:用户名。

  • ST:状态。

  • PD:排队中,PENDING。

  • R:运行中,RUNNING。

  • CA:已取消,CANCELLED。

  • CF:配置中,CONFIGURING。

  • CG:完成中,COMPLETING

  • CD:已完成,COMPLETED。

  • F:已失败,FAILED。

  • TO:超时,TIMEOUT。

  • NF:节点失效,NODE FAILURE。

  • SE:特殊退出状态,SPECIAL EXIT STATE。

  • TIME:已运行时间。

  • NODELIST(REASON):分配给的节点名列表(原因):

  • AssociationCpuLimit: 作业指定的关联CPU已在用,作业最终会运行。

  • AssociationMaxJobsLimit:作业关联的最大作业数已到,作业最终会运行。

  • AssociationNodeLimit:作业指定的关联节点已在用,作业最终会运行。

  • AssociationJobLimit:作业达到其最大允许的作业数限制。

  • AssociationResourceLimit:作业达到其最大允许的资源限制。

  • AssociationTimeLimit:作业达到时间限制。

  • BadConstraints:作业含有无法满足的约束。

  • BeginTime:作业最早开始时间尚未达到。

  • Cleaning:作业被重新排入队列,并且仍旧在执行之前运行的清理工作。

  • Dependency:作业等待一个依赖的作业结束后才能运行。

  • FrontEndDown:没有前端节点可用于执行此作业。

  • InactiveLimit:作业达到系统非激活限制。

  • InvalidAccount:作业用户无效,建议取消该作业重新采用正确账户提交。

  • InvalidQOS:作业QOS无效,建议取消该作业重新采用正确QoS提交。

  • JobHeldAdmin:作业被系统管理员挂起。

  • JobHeldUser:作业被用户自己挂起。

  • JobLaunchFailure:作业无法被启动,有可能因为文件系统故障、无效程序名等。

  • Licenses:作业等待相应的授权。

  • NodeDown:作业所需的节点宕机。

  • NonZeroExitCode:作业停止时退出代码非零。

  • PartitionDown:作业所需的队列出于DOWN状态。

  • PartitionInactive:作业所需的队列处于Inactive状态。

  • PartitionNodeLimit:作业所需的节点超过所用队列当前限制。

  • PartitionTimeLimit:作业所需的队列达到时间限制。

  • PartitionCpuLimit:该作业使用的队列对应的CPU已经被使用,作业最终会运行。

  • PartitionMaxJobsLimit:该作业使用的队列的最大作业数已到,作业最终会运行。

  • PartitionNodeLimit:该作业使用的队列对指定的节点都已在用,作业最终会运行。

  • Priority:作业所需的队列存在高等级作业或预留。

  • Prolog:作业的PrologSlurmctld前处理程序仍旧在运行。

  • QOSJobLimit:作业的QOS达到其最大作业数限制。

  • QOSResourceLimit:作业的QOS达到其最大资源限制。

  • QOSGrpCpuLimit: 作业的QoS的指定所有CPU已被占用,作业最终会运行。

  • QOSGrpMaxJobsLimit:作业的QoS的最大作业数已到,作业最终会运行。

  • QOSGrpNodeLimit:作业的QoS指定的节点都已经被占用,作业最终会运行。

  • QOSTimeLimit:作业的QOS达到其时间限制。

  • QOSUsageThreshold:所需的QOS阈值被违反。

  • ReqNodeNotAvail:作业所需的节点无效,如节点宕机。

  • Reservation:作业等待其预留的资源可用。

  • Resources:作业将要等待所需要的资源满足后才运行。

  • SystemFailure:Slurm系统失效,如文件系统、网络失效等。

  • TimeLimit:作业超过去时间限制。

  • QOSUsageThreshold:所需的QoS阈值被违反。

  • WaitingForScheduling:等待被调度中。

  • -A <account_list>, --account=<account_list>:显示用户<account_list>的作业信息,用户以,分隔。

  • -a, --all:显示所有队列中的作业及作业步信息,也显示被配置为对用户组隐藏队列的信息。

  • -r, --array:以每行一个作业元素方式显示。

  • -h, --noheader:不显示头信息,即不显示第一行“PARTITION AVAIL TIMELIMIT NODES STATE NODELIST”。

  • --help:显示帮助信息。

  • --hide:不显示隐藏队列中的作业和作业步信息。此为默认行为,不显示配置为对用户组隐藏队列的信息。

  • -i <seconds>, --iterate=<seconds>:以间隔<seconds>秒方式循环显示信息。

  • -j <job_id_list>, --jobs=<job_id_list>:显示作业号<job_id_list>的作业,作业号以,分隔。--jobs=<job_id_list>可与--steps选项结合显示特定作业的步信息。作业号格式为“job_id[_array_id]”,默认为64字节,可以用环境变量SLURM_BITSTR_LEN设定更大的字段大小。

  • -l, --long:显示更多的作业信息。

  • -L, --licenses=<license_list>:指定使用授权文件<license_list>,以,分隔。

  • -n, --name=<name_list>:显示具有特定<name_list>名字的作业,以,分隔。

  • --noconvert:不对原始单位做转换,如2048M不转换为2G。

  • -p <part_list>, --partition=<part_list>:显示特定队列<part_list>信息,<part_list>以,分隔。

  • -P, --priority:对于提交到多个队列的作业,按照各队列显示其信息。如果作业要按照优先级排序时,需考虑队列和作业优先级。

  • -q <qos_list>, --qos=<qos_list>:显示特定qos的作业和作业步,<qos_list>以,分隔。

  • -R, --reservation=reservation_name:显示特定预留信息作业。

  • -s, --steps:显示特定作业步。作业步格式为“job_id[_array_id].step_id”。

  • -S <sort_list>, --sort=<sort_list>:按照显示特定字段排序显示,<sort_list>以,分隔。如-S P,U。

  • --start:显示排队中的作业的预期执行时间。

  • -t <state_list>, --states=<state_list>:显示特定状态<state_list>的作业信息。<state_list>以,分隔,有效的可为:PENDING(PD)、RUNNING(R)、SUSPENDED(S)、STOPPED(ST)、COMPLETING(CG)、COMPLETED(CD)、CONFIGURING(CF)、CANCELLED(CA)、FAILED(F)、TIMEOUT(TO)、PREEMPTED(PR)、BOOT_FAIL(BF)、NODE_FAIL(NF)和SPECIAL_EXIT(SE),注意是不区分大小写的,如“pd”和“PD”是等效的。

  • -u <user_list>, --user=<user_list>:显示特定用户<user_list>的作业信息,<user_list>以,分隔。

  • --usage:显示帮助信息。

  • -v, --verbose:显示squeue命令详细动作信息。

  • -V, --version:显示版本信息。

  • -w <hostlist>, --nodelist=<hostlist>:显示特定节点<hostlist>信息,<hostlist>以,分隔。

  • -o <output_format>, --format=<output_format>:以特定格式<output_format>显示信息。参见 -O <output_format>, --Format=<output_format>,采用不同参数的默认格式为:

  • default:“%.18i %.9P %.8j %.8u %.2t %.10M %.6D %R”

  • -l, --long: “%.18i %.9P %.8j %.8u %.8T %.10M %.9l %.6D %R”

  • -s, --steps:“%.15i %.8j %.9P %.8u %.9M %N”

  • 每个字段的格式为“%[[.]size]type”:

  • size:字段最小尺寸,如果没有指定size,则按照所需长度显示。

  • .:右对齐显示,默认为左对齐。

  • type:类型,一些类型仅对作业有效,而有些仅对作业步有效,有效的类型为:

  • %all:显示所有字段。

  • %a:显示记帐信息(仅对作业有效)。

  • %A:作业步生成的任务数(仅适用于作业步)。

  • %A:作业号(仅适用于作业)。

  • %b:作业或作业步所需的普通资源(gres)。

  • %B:执行作业的节点。

  • %c:作业每个节点所需的最小CPU数(仅适用于作业)。

  • %C:如果作业还在运行,显示作业所需的CPU数;如果作业正在完成,显示当前分配给此作业的CPU数(仅适用于作业)。

  • %d:作业所需的最小临时磁盘空间,单位MB(仅适用于作业)。

  • %D:作业所需的节点(仅适用于作业)。

  • %e:作业结束或预期结束时间(基于其时间限制)(仅适用于作业)。

  • %E:作业依赖剩余情况。作业只有依赖的作业完成才运行,如显示NULL,则无依赖(仅适用于作业)。

  • %f:作业所需的特性(仅适用于作业)。

  • %F:作业组作业号(仅适用于作业)。

  • %g:作业用户组(仅适用于作业)。

  • %G:作业用户组ID(仅适用于作业)。

  • %h:分配给此作业的计算资源能否被其它作业预约(仅适用于作业)。可被预约的资源包含节点、CPU颗、CPU核或超线程。值可以为:

  • YES:如果作业提交时含有oversubscribe选项或队列被配置含有OverSubscribe=Force。

  • NO:如果作业所需排他性运行。

  • USER:如果分配的计算节点设定为单个用户。

  • MCS:如果分配的计算节点设定为单个安全类(参看MCSPlugin和MCSParameters配置参数,Multi-Category Security)。

  • OK:其它(典型的分配给专用的CPU)(仅适用于作业)。

  • %H:作业所需的单节点CPU数,显示srun --sockets-per-node提交选项,如--sockets-per-node未设定,则显示*(仅适用于作业)。

  • %i:作业或作业步号,在作业组中,作业号格式为“<base_job_id>_<index>”,默认作业组索引字段限制到64字节,可以用环境变量SLURM_BITSTR_LEN设定为更大的字段大小。

  • %I:作业所需的每颗CPU的CPU核数,显示的是srun --cores-per-socket设定的值,如--cores-per-socket未设定,则显示*(仅适用于作业)。

  • %j:作业或作业步名。

  • %J:作业所需的每个CPU核的线程数,显示的是srun --threads-per-core设定的值,如--threads-per-core未被设置则显示*(仅适用于作业)。

  • %k:作业说明(仅适用于作业)。

  • %K:作业组索引默认作业组索引字段限制到64字节,可以用环境变量SLURM_BITSTR_LEN设定为更大的字段大小(仅适用于作业)。

  • %l:作业或作业步时间限制,格式为“days-hours:minutes:seconds”:NOT_SET表示没有建立;UNLIMITED表示没有限制。

  • %L:作业剩余时间,格式为“days-hours:minutes:seconds”,此值由作业的时间限制减去已用时间得到:NOT_SET表示没有建立;UNLIMITED表示没有限制(仅适用于作业)。

  • %m:作业所需的最小内存,单位为MB(仅适用于作业)。

  • %M:作业或作业步已经使用的时间,格式为“days-hours:minutes:seconds”。

  • %n:作业所需的节点名(仅适用于作业)。

  • %N:作业或作业步分配的节点名,对于正在完成的作业,仅显示尚未释放资源回归服务的节点。

  • %o:执行的命令。

  • %O:作业是否需连续节点(仅适用于作业)。

  • %p:作业的优先级(0.0到1.0之间),参见%Q(仅适用于作业)。

  • %P:作业或作业步的队列。

  • %q:作业关联服务的品质(仅适用于作业)。

  • %Q:作业优先级(通常为非常大的一个无符号整数),参见%p(仅适用于作业)。

  • %r:作业在当前状态的原因,参见JOB REASON CODES(仅适用于作业)。

  • %R:参见JOB REASON CODES(仅适用于作业):

  • 对于排队中的作业:作业没有执行的原因。

  • 对于出错终止的作业:作业出错的解释。

  • 对于其他作业状态:分配的节点。

  • %S:作业或作业步实际或预期的开始时间。

  • %t:作业状态,以紧凑格式显示:PD(排队pending)、R(运行running)、CA(取消cancelled)、CF(配置中configuring)、CG(完成中completing)、CD(已完成completed)、F(失败failed)、TO(超时timeout)、NF(节点失效node failure)和SE(特殊退出状态special exit state),参见JOB STATE CODES(仅适用于作业)。

  • %T:作业状态,以扩展格式显示:PENDING、RUNNING、SUSPENDED、CANCELLED、COMPLETING、COMPLETED、CONFIGURING、FAILED、TIMEOUT、PREEMPTED、NODE_FAIL和SPECIAL_EXIT,参见JOB STATE CODES(仅适用于作业)。

  • %u:作业或作业步的用户名。

  • %U:作业或作业步的用户ID。

  • %v:作业的预留资源(仅适用于作业)。

  • %V:作业的提交时间。

  • %w:工程量特性关键Workload Characterization Key(wckey)(仅适用于作业)。

  • %W:作业预留的授权(仅适用于作业)。

  • %x:作业排他性节点名(仅适用于作业)。

  • %X:系统使用需每个节点预留的CPU核数(仅适用于作业)。

  • %y:Nice值(调整作业调动优先级)(仅适用于作业)。

  • %Y:对于排队中作业,显示其开始运行时期望的节点名。

  • %z:作业所需的每个节点的CPU颗数、CPU核数和线程数(S:C:T),如(S:C:T)未设置,则显示*(仅适用于作业)。

  • %Z:作业的工作目录。

  • -O <output_format>, --Format=<output_format>:以特定格式<output_format>显示信息,参见-o <output_format>, --format=<output_format> 每个字段的格式为“%[[.]size]type”:

  • size:字段最小尺寸,如果没有指定size,则最长显示20个字符。

  • .:右对齐显示,默认为左对齐。

  • type:类型,一些类型仅对作业有效,而有些仅对作业步有效,有效的类型为:

  • account:作业记账信息(仅适用于作业)。

  • allocnodes:作业分配的节点(仅适用于作业)。

  • allocsid:用于提交作业的会话ID(仅适用于作业)。

  • arrayjobid:作业组中的作业ID。

  • arraytaskid:作业组中的任务ID。

  • associd:作业关联ID(仅适用于作业)。

  • batchflag:是否批处理设定了标记(仅适用于作业)。

  • batchhost:执行节点(仅适用于作业):

  • 对于分配的会话:显示的是会话执行的节点(如,srunsalloc命令执行的节点)。

  • 对于批处理作业:显示的执行批处理的节点。

  • chptdir:作业checkpoint的写目录(仅适用于作业步)。

  • chptinter:作业checkpoint时间间隔(仅适用于作业步)。

  • command:作业执行的命令(仅适用于作业)。

  • comment:作业关联的说明(仅适用于作业)。

  • contiguous:作业是否要求连续节点(仅适用于作业)。

  • cores:作业所需的每颗CPU的CPU核数,显示的是srun --cores-per-socket设定的值,如--cores-per-socket未设定,则显示*(仅适用于作业)。

  • corespec:为了系统使用所预留的CPU核数(仅适用于作业)。

  • cpufreq:分配的CPU主频(仅适用于作业步)。

  • cpuspertask:作业分配的每个任务的CPU颗数(仅适用于作业)。

  • deadline:作业的截止时间(仅适用于作业)。

  • dependency:作业依赖剩余。作业只有依赖的作业完成才运行,如显示NULL,则无依赖(仅适用于作业)。

  • derivedec:作业的起源退出码,对任意作业步是最高退出码(仅适用于作业)。

  • eligibletime:预计作业开始运行时间(仅适用于作业)。

  • endtime:作业实际或预期的终止时间(仅适用于作业)。

  • exit_code:作业退出码(仅适用于作业)。

  • feature:作业所需的特性(仅适用于作业)。

  • gres:作业或作业步需的通用资源(gres)。

  • groupid:作业用户组ID(仅适用于作业)。

  • groupname:作业用户组名(仅适用于作业)。

  • jobarrayid:作业组作业ID(仅适用于作业)。

  • jobid:作业号(仅适用于作业)。

  • licenses:作业预留的授权(仅适用于作业)。

  • maxcpus:分配给作业的最大CPU颗数(仅适用于作业)。

  • maxnodes:分配给作业的最大节点数(仅适用于作业)。

  • mcslabel:作业的MCS_label(仅适用于作业)。

  • minmemory:作业所需的最小内存大小,单位MB(仅适用于作业)。

  • mintime:作业的最小时间限制(仅适用于作业)。

  • mintmpdisk:作业所需的临时磁盘空间,单位MB(仅适用于作业)。

  • mincpus:作业所需的各节点最小CPU颗数,显示的是srun --mincpus设定的值(仅适用于作业)。

  • name:作业或作业步名。

  • network:作业运行的网络。

  • nice Nice值(调整作业调度优先值)(仅适用于作业)。

  • nodes:作业或作业步分配的节点名,对于正在完成的作业,仅显示尚未释放资源回归服务的节点。

  • nodelist:作业或作业步分配的节点,对于正在完成的作业,仅显示尚未释放资源回归服务的节点,格式类似node[1-10,11,13-28]。

  • ntpercore:作业每个CPU核分配的任务数(仅适用于作业)。

  • ntpernode:作业每个节点分配的任务数(仅适用于作业)。

  • ntpersocket:作业每颗CPU分配的任务数(仅适用于作业)。

  • numcpus:作业所需的或分配的CPU颗数。

  • numnodes:作业所需的或分配的最小节点数(仅适用于作业)。

  • numtask:作业或作业号需的任务数,显示的--ntasks设定的。

  • oversubscribe:分配给此作业的计算资源能否被其它作业预约(仅适用于作业)。可被预约的资源包含节点、CPU颗、CPU核或超线程。值可以为:

  • YES:如果作业提交时含有oversubscribe选项或队列被配置含有OverSubscribe=Force。

  • NO:如果作业所需排他性运行。

  • USER:如果分配的计算节点设定为单个用户。

  • MCS:如果分配的计算节点设定为单个安全类(参看MCSPlugin和MCSParameters配置参数)。

  • OK:其它(典型分配给指定CPU)。

  • partition:作业或作业步的队列。

  • priority:作业的优先级(0.0到1.0之间),参见%Q(仅适用于作业)。

  • prioritylong:作业优先级(通常为非常大的一个无符号整数),参见%p(仅适用于作业)。

  • profile:作业特征(仅适用于作业)。

  • preemptime:作业抢占时间(仅适用于作业)。

  • qos:作业的服务质量(仅适用于作业)。

  • reason:作业在当前的原因,参见JOB REASON CODES(仅适用于作业)。

  • reasonlist:参见JOB REASON CODES(仅适用于作业)。

  • 对于排队中的作业:作业没有执行的原因。

  • 对于出错终止的作业:作业出错的解释。

  • 对于其他作业状态:分配的节点。

  • reqnodes:作业所需的节点名(仅适用于作业)。

  • requeue:作业失败时是否需重新排队运行(仅适用于作业)。

  • reservation:预留资源(仅适用于作业)。

  • resizetime:运行作业的变化时间总和(仅适用于作业)。

  • restartcnt:作业的重启checkpoint数(仅适用于作业)。

  • resvport:作业的预留端口(仅适用于作业步)。

  • schednodes:排队中的作业开始运行时预期将被用的节点列表(仅适用于作业)。

  • sct:各节点作业所需的CPU数、CPU核数和线程数(S:C:T),如(S:C:T)未设置,则显示*(仅适用于作业)。

  • selectjobinfo:节点选择插件针对作业指定的数据,可能的数据包含:资源分配的几何维度(X、Y、Z维度)、连接类型(TORUS、MESH或NAV == torus else mesh),是否允许几何旋转(yes或no),节点使用(VIRTUAL或COPROCESSOR)等(仅适用于作业)。

  • sockets:作业每个节点需的CPU数,显示srun时的--sockets-per-node选项,如--sockets-per-node未设置,则显示*(仅适用于作业)。

  • sperboard:每个主板分配给作业的CPU数(仅适用于作业)。

  • starttime:作业或作业布实际或预期开始时间。

  • state:扩展格式作业状态:排队中PENDING、运行中RUNNING、已停止STOPPED、被挂起SUSPENDED、被取消CANCELLED、完成中COMPLETING、已完成COMPLETED、配置中CONFIGURING、已失败FAILED、超时TIMEOUT、预取PREEMPTED、节点失效NODE_FAIL、特定退出SPECIAL_EXIT,参见JOB STATE CODES部分(仅适用于作业)。

  • statecompact:紧凑格式作业状态:PD(排队中pending)、R(运行中running)、CA(已取消cancelled)、CF(配置中configuring)、CG(完成中completing)、CD(已完成completed)、F(已失败failed)、TO(超时timeout)、NF(节点失效node failure)和SE(特定退出状态special exit state),参见JOB STATE CODES部分(仅适用于作业)。

  • stderr:标准出错输出目录(仅适用于作业)。

  • stdin:标准输入目录(仅适用于作业)。

  • stdout:标准输出目录(仅适用于作业)。

  • stepid:作业或作业步号。在作业组中,作业号格式为“<base_job_id>_<index>”(仅适用于作业步)。

  • stepname:作业步名(仅适用于作业步)。

  • stepstate:作业步状态(仅适用于作业步)。

  • submittime:作业提交时间(仅适用于作业)。

  • threads:作业所需的每颗CPU核的线程数,显示srun的--threads-per-core参数,如--threads-per-core未设置,则显示*(仅适用于作业)。

  • timeleft:作业剩余时间,格式为“days-hours:minutes:seconds”,此值是通过其时间限制减去已运行时间得出的:如未建立则显示“NOT_SET”;如无限制则显示“UNLIMITED”(仅适用于作业)。

  • timelimit:作业或作业步的时间限制。

  • timeused:作业或作业步以使用时间,格式为“days-hours:minutes:seconds”,days和hours只有需要时才显示。对于作业步,显示从执行开始经过的时间,因此对于被曾挂起的作业并不准确。节点间的时间差也会导致时间不准确。如时间不对(如,负值),将显示“INVALID”。

  • tres:显示分配给作业的可被追踪的资源。

  • userid:作业或作业步的用户ID。

  • username:作业或作业步的用户名。

  • wait4switch:需满足转轨器数目的总等待时间(仅适用于作业)。

  • wckey:工作负荷特征关键(wckey)(仅适用于作业)。

  • workdir:作业工作目录(仅适用于作业)。

  • 查看详细队列信息:scontrol show partition

    scontrol show partition显示全部队列信息,scontrol show partition PartitionNamescontrol show partition=PartitionName显示队列名PartitionName的队列信息,输出类似:

    PartitionName=CPU-Large AllowGroups=ALL AllowAccounts=ALL AllowQos=ALL
    AllocNodes=ALL Default=YES QoS=N/A DefaultTime=NONE DisableRootJobs=YES
    ExclusiveUser=NO GraceTime=0 Hidden=NO MaxNodes=UNLIMITED
    MaxTime=UNLIMITED MinNodes=0 LLN=NO MaxCPUsPerNode=UNLIMITED
    Nodes=cnode[001-720] PriorityJobFactor=1 PriorityTier=1 RootOnly=NO
    ReqResv=NO OverSubscribe=NO OverTimeLimit=NONE PreemptMode=OFF State=UP
    TotalCPUs=28800 TotalNodes=720 SelectTypeParameters=NONE
    JobDefaults=(null) DefMemPerNode=UNLIMITED MaxMemPerNode=UNLIMITED
    PartitionName=GPU-V100 AllowGroups=ALL AllowAccounts=ALL AllowQos=ALL
    AllocNodes=ALL Default=NO QoS=N/A DefaultTime=NONE DisableRootJobs=YES
    ExclusiveUser=NO GraceTime=0 Hidden=NO MaxNodes=UNLIMITED
    MaxTime=UNLIMITED MinNodes=0 LLN=NO MaxCPUsPerNode=UNLIMITED
    Nodes=gnode[01-10] PriorityJobFactor=1 PriorityTier=1 RootOnly=NO
    ReqResv=NO OverSubscribe=NO OverTimeLimit=NONE PreemptMode=OFF State=UP
    TotalCPUs=400 TotalNodes=10 SelectTypeParameters=NONE JobDefaults=(null)
    DefMemPerNode=UNLIMITED MaxMemPerNode=UNLIMITED
    PartitionName=2TB-AEP-Mem AllowGroups=ALL AllowAccounts=ALL AllowQos=ALL
    AllocNodes=ALL Default=NO QoS=N/A DefaultTime=NONE DisableRootJobs=YES
    ExclusiveUser=NO GraceTime=0 Hidden=NO MaxNodes=UNLIMITED
    MaxTime=UNLIMITED MinNodes=0 LLN=NO MaxCPUsPerNode=UNLIMITED
    Nodes=anode[01-08] PriorityJobFactor=1 PriorityTier=1 RootOnly=NO
    ReqResv=NO OverSubscribe=NO OverTimeLimit=NONE PreemptMode=OFF State=UP
    TotalCPUs=320 TotalNodes=8 SelectTypeParameters=NONE JobDefaults=(null)
    DefMemPerNode=UNLIMITED MaxMemPerNode=UNLIMITED
    PartitionName=ARM-CPU AllowGroups=ALL AllowAccounts=ALL AllowQos=ALL
    AllocNodes=ALL Default=NO QoS=N/A DefaultTime=NONE DisableRootJobs=YES
    ExclusiveUser=NO GraceTime=0 Hidden=NO MaxNodes=UNLIMITED
    MaxTime=UNLIMITED MinNodes=0 LLN=NO MaxCPUsPerNode=UNLIMITED
    Nodes=rnode[01-09] PriorityJobFactor=1 PriorityTier=1 RootOnly=NO
    ReqResv=NO OverSubscribe=NO OverTimeLimit=NONE PreemptMode=OFF State=UP
    TotalCPUs=864 TotalNodes=9 SelectTypeParameters=NONE JobDefaults=(null)
    DefMemPerNode=UNLIMITED MaxMemPerNode=UNLIMITED
    

    主要输出项

  • PartitionName:队列名。

  • AllowGroups:允许的用户组。

  • AllowAccounts:允许的用户。

  • AllowQos:允许的QoS。

  • AllocNodes:允许的节点。

  • Default:是否为默认队列。

  • QoS:服务质量。

  • DefaultTime:默认时间。

  • DisableRootJobs:是否禁止root用户提交作业。

  • ExclusiveUser:排除的用户。

  • GraceTime:抢占的款显时间,单位秒。

  • Hidden:是否为隐藏队列。

  • MaxNodes:最大节点数。

  • MaxTime:最大运行时间。

  • MinNodes:最小节点数。

  • LLN:是否按照最小负载节点调度。

  • MaxCPUsPerNode:每个节点的最大CPU颗数。

  • Nodes:节点名。

  • PriorityJobFactor:作业因子优先级。

  • PriorityTier:调度优先级。

  • RootOnly:是否只允许Root。

  • ReqResv:要求预留的资源。

  • OverSubscribe:是否允许超用。

  • PreemptMode:是否为抢占模式。

  • State:状态:

  • UP:可用,作业可以提交到此队列,并将运行。

  • DOWN:作业可以提交到此队列,但作业也许不会获得分配开始运行。已运行的作业还将继续运行。

  • DRAIN:不接受新作业,已接受的作业可以被运行。

  • INACTIVE:不接受新作业,已接受的作业未开始运行的也不运行。

  • TotalCPUs:总CPU核数。

  • TotalNodes:总节点数。

  • SelectTypeParameters:资源选择类型参数。

  • DefMemPerNode:每个节点默认分配的内存大小,单位MB。

  • MaxMemPerNode:每个节点最大内存大小,单位MB。

  • 查看详细节点信息:scontrol show node

    scontrol show node显示全部节点信息,scontrol show node NODENAMEscontrol show node=NODENAME显示节点名NODENAME的节点信息,输出类似:

    NodeName=anode01 Arch=x86_64 CoresPerSocket=20
      CPUAlloc=0 CPUTot=40 CPULoad=0.01
      AvailableFeatures=(null)
      ActiveFeatures=(null)
      Gres=(null)
      NodeAddr=anode01 NodeHostName=anode01 Version
    
    
    
    
        
    =19.05.4
      OS=Linux 3.10.0-1062.el7.x86_64 #1 SMP Wed Aug 7 18:08:02 UTC 2019
      RealMemory=2031623 AllocMem=0 FreeMem=1989520 Sockets=2 Boards=1
      State=IDLE ThreadsPerCore=1 TmpDisk=0 Weight=1 Owner=N/A MCS_label=N/A
      Partitions=2TB-AEP-Mem
      BootTime=2019-11-09T15:47:56 SlurmdStartTime=2019-12-01T19:01:59
      CfgTRES=cpu=40,mem=2031623M,billing=40
      AllocTRES=
      CapWatts=n/a
      CurrentWatts=0 AveWatts=0
      ExtSensorsJoules=n/s ExtSensorsWatts=0 ExtSensorsTemp=n/s
    NodeName=gnode01 Arch=x86_64 CoresPerSocket=20
      CPUAlloc=0 CPUTot=40 CPULoad=0.01
      AvailableFeatures=(null)
      ActiveFeatures=(null)
      Gres=gpu:v100:2
      NodeAddr=gnode01 NodeHostName=gnode01 Version=19.05.4
      OS=Linux 3.10.0-1062.el7.x86_64 #1 SMP Wed Aug 7 18:08:02 UTC 2019
      RealMemory=385560 AllocMem=0 FreeMem=368966 Sockets=2 Boards=1
      State=IDLE ThreadsPerCore=1 TmpDisk=0 Weight=1 Owner=N/A MCS_label=N/A
      Partitions=GPU-V100
      BootTime=2019-11-13T16:51:31 SlurmdStartTime=2019-12-01T19:54:55
      CfgTRES=cpu=40,mem=385560M,billing=40,gres/gpu=2
      AllocTRES=
      CapWatts=n/a
      CurrentWatts=0 AveWatts=0
      ExtSensorsJoules=n/s ExtSensorsWatts=0 ExtSensorsTemp=n/s
    

    主要输出项

  • NodeName:节点名。

  • Arch:系统架构。

  • CoresPerSocket:12。

  • CPUAlloc:分配给的CPU核数。

  • CPUErr:出错的CPU核数。

  • CPUTot:总CPU核数。

  • CPULoad:CPU负载。

  • AvailableFeatures:可用特性。

  • ActiveFeatures:激活的特性。

  • Gres:通用资源。如上面Gres=gpu:v100:2指明了有两块V100 GPU。

  • NodeAddr:节点IP地址。

  • NodeHostName:节点名。

  • Version:Slurm版本。

  • OS:操作系统 。

  • RealMemory:实际物理内存,单位GB。

  • AllocMem:已分配内存,单位GB。

  • FreeMem:可用内存,单位GB。

  • Sockets:CPU颗数。

  • Boards:主板数。

  • State:状态。

  • ThreadsPerCore:每颗CPU核线程数。

  • TmpDisk:临时存盘硬盘大小。

  • Weight:权重。

  • BootTime:开机时间。

  • SlurmdStartTime:Slurmd守护进程启动时间。

  • 查看详细作业信息:scontrol show job

    scontrol show job显示全部作业信息,scontrol show job JOBIDscontrol show job=JOBID显示作业号为JOBID的作业信息,输出类似下面:

    JobId=77 JobName=gres_test.bash
       UserId=hmli(10001) GroupId=nic(10001) MCS_label=N/A
       Priority=4294901755 Nice=0 Account=(null) QOS=normal
       JobState=RUNNING Reason=None Dependency=(null)
       Requeue=1 Restarts=0 BatchFlag=1 Reboot=0 ExitCode=0:0
       RunTime=00:00:11 TimeLimit=UNLIMITED TimeMin=N/A
       SubmitTime=2019-12-01T20:10:15 EligibleTime=2019-12-01T20:10:15
       AccrueTime=2019-12-01T20:10:15
       StartTime=2019-12-01T20:10:16 EndTime=Unknown Deadline=N/A
       SuspendTime=None SecsPreSuspend=0 LastSchedEval=2019-12-01T20:10:16
       Partition=GPU-V100 AllocNode:Sid=login01:1016
       ReqNodeList=(null) ExcNodeList=(null)
       NodeList=gnode01
       BatchHost=gnode01
       NumNodes=1 NumCPUs=1 NumTasks=1 CPUs/Task=1 ReqB:S:C:T=0:0:*:*
       TRES=cpu=1,node=1,billing=1
       Socks/Node=* NtasksPerN:B:S:C=0:0:*:* CoreSpec=*
       MinCPUsNode=1 MinMemoryNode=0 MinTmpDiskNode=0
       Features=(null) DelayBoot=00:00:00
       OverSubscribe=OK Contiguous=0 Licenses=(null) Network=(null)
       Command=/home/nic/hmli/gres_test.bash
       WorkDir=/home/nic/hmli
       StdErr=/home/nic/hmli/job-77.err
       StdIn=/dev/null
       StdOut=/home/nic/hmli/job-77.log
       Power=
    

    主要输出项

  • JobId:作业号。

  • JobName:作业名。

  • UserId:用户名(用户ID)。

  • GroupId:用户组(组ID)。

  • MCS_label:MCS标记。

  • Priority:优先级,越大越优先,如果为0则表示被管理员挂起,不允许运行。

  • Nice:Nice值,越小越优先,-20到19。

  • Account:记账用户名。

  • QOS:作业的服务质量。

  • JobState:作业状态。

  • PENDING:排队中。

  • RUNNING:运行中。

  • CANCELLED:已取消。

  • CONFIGURING:配置中。

  • COMPLETING:完成中。

  • COMPLETED:已完成。

  • FAILED:已失败。

  • TIMEOUT:超时。

  • NODE FAILURE:节点失效。

  • SPECIAL EXIT STATE:特殊退出状态。

  • Reason:原因。

  • Dependency:依赖关系。

  • Requeue:节点失效时,是否重排队,0为否,1为是。

  • Restarts:失败时,是否重运行,0为否,1为是。

  • BatchFlag:是否为批处理作业,0为否,1为是。

  • Reboot:节点空闲时是否重启节点,0为否,1为是。

  • ExitCode:作业退出代码。

  • RunTime:已运行时间。

  • TimeLimit:作业允许的剩余运行时间。

  • TimeMin:最小时间。

  • SubmitTime:提交时间。

  • EligibleTime:获得认可时间。

  • StartTime:开始运行时间。

  • EndTime:预计结束时间。

  • Deadline:截止时间。

  • PreemptTime:先占时间。

  • SuspendTime:挂起时间。

  • SecsPreSuspend:0。

  • Partition:对列名。

  • AllocNode:Sid:分配的节点:系统ID号。

  • ReqNodeList:需要的节点列表,格式类似node[1-10,11,13-28]。

  • ExcNodeList:排除的节点列表,格式类似node[1-10,11,13-28]。

  • NodeList:实际运行节点列表,格式类似node[1-10,11,13-28]。

  • BatchHost:批处理节点名。

  • NumNodes:节点数。

  • NumCPUs:CPU核数。

  • NumTasks:任务数。

  • CPUs/Task:CPU核数/任务数。

  • ReqB:S:C:T:所需的主板数:每主板CPU颗数:每颗CPU核数:每颗CPU核的线程数,<baseboard_count>:<socket_per_baseboard_count>:<core_per_socket_count>:<thread_per_core_count>。

  • TRES:显示分配给作业的可被追踪的资源。

  • Socks/Node:每节点CPU颗数。

  • NtasksPerN:B:S:C:每主板数:每主板CPU颗数:每颗CPU的核数:每颗CPU核的线程数启动的作业数,<tasks_per_node>:<tasks_per_baseboard>:<tasks_per_socket>:<tasks_per_core>。

  • CoreSpec:各节点系统预留的CPU核数,如未包含,则显示*。

  • MinCPUsNode:每节点最小CPU核数。

  • MinMemoryNode:每节点最小内存大小,0表示未限制。

  • MinTmpDiskNode:每节点最小临时存盘硬盘大小,0表示未限制。

  • Features:特性。

  • Gres:通用资源。

  • Reservation:预留资源。

  • OverSubscribe:是否允许与其它作业共享资源,OK允许,NO不允许。

  • Contiguous:是否要求分配连续节点,OK是,NO否。

  • Licenses:软件授权。

  • Network:网络。

  • Command:作业命令。

  • WorkDir:工作目录。

  • StdErr:标准出错输出文件。

  • StdIn:标准输入文件。

  • StdOut:标准输出文件。

  • 查看服务质量(QoS)

    服务质量(Quality Of Service-QoS),或者理解为资源限制或者优先级,只有达到QoS要求时作业才能运行,QoS将在以下三个方面影响作业运行:

  • 作业调度优先级

  • 可以用sacctmgr show | list qos查看。

    查看作业屏幕输出:speek

    查看作业屏幕输出的命令speek(类似LSF的bpeek),基本用法speek [-e] [-f] 作业号。默认显示正常屏幕输出,如加-f参数,则连续监测输出;如加-e参数,则监测错误日志。

    注:该speek命令是本人写的,不是slurm官方命令,在其它系统上不一定有。

    #!/bin/bash
    #Author: HM Li <hmli@ustc.edu.cn>
    if [ $# -lt 1 ] ; then
        echo "Usage: speek [-e] [-f] jobid"
        echo -e " -e: show error log.\n -f: output appended data as the file grows.\n\nYour jobs are:"
        if [ $USER != 'root' ]; then
            squeue -u $USER -t r -o "%.8i %10P %12j %19S %.12M %.7C %.5D %R"
            squeue -t r -o "%.8i %10u %10P %12j %19S %.12M  %.7C %.5D %R"
    NO=1
    STD=StdOut
    while getopts 'ef' OPT; do
        case $OPT in
               STD=StdErr
               T='-f'
    JOBID=${!#}
    F=`scontrol show job $JOBID 2>/dev/null | awk -v STD=$STD -F= '{if($1~'STD') print $2}'`
    if [ -f "$F" ]; then
        tail $T $F
        echo "Job $JOBID has no $STD file or you have no authority to access."
    
  • -A, --account=<account>:指定此作业的责任资源为账户<account>,即账单(与计算费对应)记哪个名下,只有账户属于多个账单组才有权指定。

  • --accel-bind=<options>:srun特有,控制如何绑定作业到GPU、网络等特定资源,支持同时多个选项,支持的选项如下:

  • g:绑定到离分配的CPU最近的GPU

  • m:绑定到离分配的CPU最近的MIC

  • n:绑定到离分配的CPU最近的网卡

  • v:详细模式,显示如何绑定GPU和网卡等等信息

  • --acctg-freq:指定作业记账和剖面信息采样间隔。支持的格式为--acctg-freq=<datatype>=<interval>,其中<datatype>=<interval>指定了任务抽样间隔或剖面抽样间隔。多个<datatype>=<interval>可以采用,分隔(默认为30秒):

  • task=<interval>:以秒为单位的任务抽样(需要jobacct_gather插件启用)和任务剖面(需要acct_gather_profile插件启用)间隔。

  • energy=<interval>:以秒为单位的能源剖面抽样间隔,需要acct_gather_energy插件启用。

  • network=<interval>:以秒为单位的InfiniBand网络剖面抽样间隔,需要acct_gather_infiniband插件启用。

  • filesystem=<interval>:以秒为单位的文件系统剖面抽样间隔,需要acct_gather_filesystem插件启用。

  • -B --extra-node-info=<sockets[:cores[:threads]]>:选择满足<sockets[:cores[:threads]]>的节点,*表示对应选项不做限制。对应限制可以采用下面对应选项:

  • --sockets-per-node=<sockets>

  • --cores-per-socket=<cores>

  • --threads-per-core=<threads>

  • --bcast[=<dest_path>]:srun特有,复制可执行程序到分配的计算节点的[<dest_path>]目录。如指定了<dest_path>,则复制可执行程序到此;如没指定则复制到当前工作目录下的“slurm_bcast_<job_id>.<step_id>”。如srun --bcast=/tmp/mine -N3 a.out将从当前目录复制a.out到每个分配的节点的/tmp/min并执行。

  • --begin=<time>:设定开始分配资源运行的时间。时间格式可为HH:MM:SS,或添加AM、PM等,也可采用MMDDYY、MM/DD/YY或YYYY-MM-DD格式指定日期,含有日期及时间的格式为:YYYY-MM-DD[THH:MM[:SS]],也可以采用类似now+时间单位的方式,时间单位可以为seconds(默认)、minutes、hours、days和weeks、today、tomorrow等,例如:

  • --begin=16:00:16:00开始。

  • --begin=now+1hour:1小时后开始。

  • --begin=now+60:60秒后开始(默认单位为秒)。

  • --begin=2017-02-20T12:34:00:2017-02-20T12:34:00开始。

  • --bell:分配资源时终端响铃,参见--no-bell。

  • --cpu-bind=[quiet,verbose,]type:srun特有,设定CPU绑定模式。

  • --comment=<string>:作业说明。

  • --contiguous:需分配到连续节点,一般来说连续节点之间网络会快一点,如在同一个IB交换机内,但有可能导致开始运行时间推迟(需等待足够多的连续节点)。

  • --cores-per-socket=<cores>:分配的节点需要每颗CPU至少<cores>CPU核。

  • --cpus-per-gpu=<ncpus>:每颗GPU需<ncpus>个CPU核,与--cpus-per-task不兼容。

  • -c, --cpus-per-task=<ncpus>:每个进程需<ncpus>颗CPU核,一般运行OpenMP等多线程程序时需,普通MPI程序不需。

  • --deadline=<OPT>:如果在此deadline(start > (deadline - time[-min])之前没有结束,那么移除此作业。默认没有deadline,有效的时间格式为:

  • HH:MM[:SS] [AM|PM]

  • MMDD[YY]或MM/DD[/YY]或MM.DD[.YY]

  • MM/DD[/YY]-HH:MM[:SS]

  • YYYY-MM-DD[THH:MM[:SS]]]

  • -d, --dependency=<dependency_list>:满足依赖条件<dependency_list>后开始分配。<dependency_list>可以为<type:job_id[:job_id][,type:job_id[:job_id]]>或<type:job_id[:job_id][?type:job_id[:job_id]]>。依赖条件如果用,分隔,则各依赖条件都需要满足;如果采用?分隔,那么只要任意条件满足即可。可以为:

  • after:job_id[:jobid…]:当指定作业号的作业结束后开始运行。

  • afterany:job_id[:jobid…]:当指定作业号的任意作业结束后开始运行。

  • aftercorr:job_id[:jobid…]:当相应任务号任务结束后,此作业组中的开始运行。

  • afternotok:job_id[:jobid…]:当指定作业号的作业结束时具有异常状态(非零退出码、节点失效、超时等)时。

  • afterok:job_id[:jobid…]:当指定的作业正常结束(退出码为0)时开始运行。

  • expand:job_id:分配给此作业的资源将扩展给指定作业。

  • singleton:等任意通账户的相同作业名的前置作业结束时。

  • -D, --chdir=<path>:在切换到<path>工作目录后执行命令。

  • -e, --error=<mode>:设定标准错误如何重定向。非交互模式下,默认srun重定向标准错误到与标准输出同样的文件(如指定)。此参数可以指定重定向到不同文件。如果指定的文件已经存在,那么将被覆盖。参见IO重定向。salloc无此选项。

  • --epilog=<executable>:srun特有,作业结束后执行<executable>程序做相应处理。

  • -E, --preserve-env:将环境变量SLURM_NNODESSLURM_NTASKS传递给可执行文件,而无需通过计算命令行参数。

  • --exclusive[=user|mcs]:排他性运行,独占性运行,此节点不允许其他[user]用户或mcs选项的作业共享运行作业。

  • --export=<[ALL,]environment variables|ALL|NONE>:sbatch与srun特有,将环境变量传递给应用程序

  • ALL:复制所有提交节点的环境变量,为默认选项。

  • NONE:所有环境变量都不被传递,可执行程序必须采用绝对路径。一般用于当提交时使用的集群与运行集群不同时。

  • [ALL,]environment variables:复制全部环境变量及特定的环境变量及其值,可以有多个以,分隔的变量。如:“--export=EDITOR,ARG1=test”。

  • --export-file=<filename | fd>:sbatch特有,将特定文件中的变量设置传递到计算节点,这允许在定义环境变量时有特殊字符。

  • -F, --nodefile=<node file>:类似--nodelist指定需要运行的节点,但在一个文件中含有节点列表。

  • -G, --gpus=[<type>:]<number>:设定使用的GPU类型及数目,如--gpus=v100:2。

  • --gpus-per-node=[<type>:]<number>:设定单个节点使用的GPU类型及数目。

  • --gpus-per-socket=[<type>:]<number>:设定每个socket需要的GPU类型及数目。

  • --gpus-per-task=[<type>:]<number>:设定每个任务需要的GPU类型及数目。

  • --gres=<list>:设定通用消费资源,可以以,分隔。每个<list>格式为“name[[:type]:count]”。name是可消费资源;count是资源个数,默认为1;

  • -H, --hold:设定作业将被提交为挂起状态。挂起的作业可以利用scontrol release <job_id>使其排队运行。

  • -h, --help:显示帮助信息。

  • --hint=<type>:绑定任务到应用提示:

  • compute_bound:选择设定计算边界应用:采用每个socket的所有CPU核,每颗CPU核一个进程。

  • memory_bound:选择设定内存边界应用:仅采用每个socket的1颗CPU核,每颗CPU核一个进程。

  • multithread:在in-core multi-threading是否采用额外的线程,对通信密集型应用有益。仅当task/affinity插件启用时。

  • help:显示帮助信息

  • -I, --immediate[=<seconds>]:salloc与srun特有,在<seconds>秒内资源未满足的话立即退出。格式可以为“-I60”,但不能之间有空格是“-I 60”。

  • --ignore-pbs:sbatch特有,忽略批处理脚本中的“#PBS”选项。

  • -i, --input=<mode>:sbatch与srun特有,指定标准输入如何重定向。默认,srun对所有任务重定向标准输入为从终端。参见IO重定向。

  • -J, --job-name=<jobname>:设定作业名<jobname>,默认为命令名。

  • --jobid=<jobid>:srun特有,初始作业步到某个已分配的作业号<jobid>下的作业下,类似设置了SLURM_JOB_ID环境变量。仅对作业步申请有效。

  • -K, --kill-command[=signal]:salloc特有,设定需要终止时的signal,默认,如没指定,则对于交互式作业为SIGHUP,对于非交互式作业为SIGTERM。格式类似可以为“-K1”,但不能包含空格为“-K 1”。

  • -K,–kill-on-bad-exit[=0|1]:srun特有,设定是否任何一个任务退出码为非0时,是否终止作业步。

  • -k, --no-kill:如果分配的节点失效,那么不会自动终止。

  • -L, --licenses=<license>:设定使用的<license>。

  • -l, --label:srun特有,在标注正常输出或标准错误输出的行前面添加作业号。

  • --mem=<size[units]>:设定每个节点的内存大小,后缀可以为[K|M|G|T],默认为MB。

  • --mem-per-cpu=<size[units]>:设定分配的每颗CPU对应最小内存,后缀可以为[K|M|G|T],默认为MB。

  • --mem-per-gpu=<size[units]>:设定分配的每颗GPU对应最小内存,后缀可以为[K|M|G|T],默认为MB。

  • --mincpus=<n>:设定每个节点最小的逻辑CPU核/处理器。

  • --mpi=<mpi_type>:srun特有,指定使用的MPI环境,<mpi_type>可以主要为:

  • list:列出可用的MPI以便选择。

  • pmi2:启用PMI2支持

  • pmix:启用PMIx支持

  • none:默认选项,多种其它MPI实现有效。

  • --multi-prog:srun特有,让不同任务运行不同的程序及参数,需指定一个配置文件,参见MULTIPLE PROGRAM CONFIGURATION。

  • -N, --nodes=<minnodes[-maxnodes]>:采用特定节点数运行作业,如没指定maxnodes则需特定节点数,注意,这里是节点数,不是CPU核数,实际分配的是节点数×每节点CPU核数。

  • --nice[=adjustment]:设定NICE调整值。负值提高优先级,正值降低优先级。调整范围为:+/-2147483645。

  • -n, --ntasks=<number>:设定所需要的任务总数。默认是每个节点1个任务,注意是节点,不是CPU核。仅对作业起作用,不对作业步起作用。--cpus-per-task选项可以改变此默认选项。

  • --ntasks-per-core=<ntasks>:每颗CPU核运行<ntasks>个任务,需与-n, --ntasks=<number>配合,并自动绑定<ntasks>个任务到每个CPU核。仅对作业起作用,不对作业步起作用。

  • --ntasks-per-node=<ntasks>:每个节点运行<ntasks>个任务,需与-n, --ntasks=<number>配合。仅对作业起作用,不对作业步起作用。

  • --ntasks-per-socket=<ntasks>:每颗CPU运行<ntasks>个任务,需与-n, --ntasks=<number>配合,并绑定<ntasks>个任务到每颗CPU。仅对作业起作用,不对作业步起作用。

  • --no-bell:salloc特有,资源分配时不终端响铃。参见--bell。

  • --no-shell:salloc特有,分配资源后立即退出,而不运行命令。但Slurm作业仍旧被生成,在其激活期间,且保留这些激活的资源。用户会获得一个没有附带进程和任务的作业号,用户可以采用提交srun命令到这些资源。

  • -o, --output=<mode>:sbatch与srun特有,指定标准输出重定向。在非交互模式中,默认srun收集各任务的标准输出,并发送到吸附的终端上。采用--output可以将其重定向到同一个文件、每个任务一个文件或/dev/null等。参见IO重定向。

  • --open-mode=<append|truncate>:sbtach与srun特有,对标准输出和标准错误输出采用追加模式还是覆盖模式。

  • -O, --overcommit:采用此选项可以使得每颗CPU运行不止一个任务。

  • --open-mode=<append|truncate>:标准输出和标准错误输出打开文件的方式:

  • append:追加。

  • truncate:截断覆盖。

  • -p, --partition=<partition_names>:使用<partition_names>队列

  • --prolog=<executable>:srun特有,作业开始运行前执行<executable>程序,做相应处理。

  • -Q, --quiet:采用安静模式运行,一般信息将不显示,但错误信息仍将被显示。

  • --qos=<qos>:需要特定的服务质量(QS)。

  • --quit-on-interrupt:srun特有,当SIGINT (Ctrl-C)时立即退出。

  • -r, --relative=<n>:srun特有,在当前分配的第n节点上运行作业步。该选项可用于分配一些作业步到当前作业占用的节点外的节点,节点号从0开始。-r选项不能与-w或-x同时使用。仅对作业步有效。

  • --reservation=<name>:从<name>预留资源分配。

  • –requeue:sbtach特有,当非配的节点失效或被更高级作业抢占资源后,重新运行该作业。相当于重新运行批处理脚本,小心已运行的结果被覆盖等。

  • --no-requeue:任何情况下都不重新运行。

  • -S, --core-spec=<num>:指定预留的不被作业使用的各节点CPU核数。但也会被记入费用。

  • --signal=<sig_num>[@<sig_time>]:设定到其终止时间前信号时间<sig_time>秒时的信号。由于Slurm事件处理的时间精度,信号有可能比设定时间早60秒。信号可以为10或USER1,信号时间sig_time必须在0到65535之间,如没指定,则默认为60秒。

  • --sockets-per-node=<sockets>:设定每个节点的CPU颗数。

  • -T, --threads=<nthreads>:srun特有,限制从srun进程发送到分配节点上的并发线程数。

  • -t, --time=<time>:作业最大运行总时间<time>,到时间后将被终止掉。时间<time>的格式可以为:分钟、分钟:秒、小时:分钟:秒、天-小时、天-小时:分钟、天-小时:分钟:秒

  • --task-epilog=<executable>:srun特有 ,任务终止后立即执行<executable>,对应于作业步分配。

  • --task-prolog=<executable>:srun特有,任务开始前立即执行<executable>,对应于作业步分配。

  • --test-only:sbatch与srun特有,测试批处理脚本,并预计将被执行的时间,但并不实际执行脚本。

  • --thread-spec=<num>:设定指定预留的不被作业使用的各节点线程数。

  • --threads-per-core=<threads>:每颗CPU核运行<threads>个线程。

  • --time-min=<time>:设定作业分配的最小时间,设定后作业的运行时间将使得--time设定的时间不少于--time-min设定的。时间格式为:minutes、minutes:seconds、hours:minutes:seconds、days-hours、days-hours:minutes和days-hours:minutes:seconds。

  • --usage:显示简略帮助信息

  • --tmp=<size[units]>:设定/tmp目录最小磁盘空间,后缀可以为[K|M|G|T],默认为MB。

  • -u, --usage:显示简要帮助信息。

  • -u, --unbuffered:srun特有,该选项使得输出可以不被缓存立即显示出来。默认应用的标准输出被glibc缓存,除非被刷新(flush)或输出被设定为步缓存。

  • --use-min-nodes:设定如果给了一个节点数范围,分配时,选择较小的数。

  • -V, --version:显示版本信息。

  • -v, --verbose:显示详细信息,多个v会显示更详细的详细。

  • -W, --wait=<seconds>:设定在第一个任务结束后多久结束全部任务。

  • -w, --nodelist=<host1,host2,… or filename>:在特定<host1,host2>节点或filename文件中指定的节点上运行。

  • --wait-all-nodes=<value>:salloc与sbatch特有,控制当节点准备好时何时运行命令。默认,当分配的资源准备好后salloc命令立即返回。<value>可以为:

  • 0:当分配的资源可以分配时立即执行,比如有节点以重启好。

  • 1:只有当分配的所有节点都准备好时才执行

  • -X, --disable-status:srun特有,禁止在srun收到SIGINT (Ctrl-C)时显示任务状态。

  • -x, --exclude=<host1,host2,… or filename>:在特定<host1,host2>节点或filename文件中指定的节点之外的节点上运行。

  • IO重定向

    默认标准输出文件和标准出错文件将从所有任务中被重定向到sbatch和srun (salloc不存在IO重定向)的标准输出文件和标准出错文件,标准输入文件从srun的标准输输入文件重定向到所有任务。如果标准输入仅仅是几个任务需要,建议采用读文件方式而不是重定向方式,以免输入错误数据。

    以上行为可以通过--output、--error和--input(-o、-e、-i)等选项改变,有效的格式为:

  • all:标准输出和标准出错从所有任务定向到srun,标准输入文件从srun的标准输输入文件重定向到所有任务(默认)。

  • none:标准输出和标准出错不从任何任务定向到srun,标准输入文件不从srun定向到任何任务。

  • taskid:标准输出和/或标准出错仅从任务号为taskid的任务定向到srun,标准输入文件仅从srun定向到任务号为taskid任务。

  • filename: srun将所有任务的标准输出和标准出错重定向到filename文件,标准输入文件将从filename文件重定向到全部任务。

  • 格式化字符:srun允许生成采用格式化字符命名的上述IO文件,如可以结合作业号、作业步、节点或任务等。

  • \:不处理任何代替符。

  • %%:字符“%”。

  • %A:作业组的主作业分配号。

  • %a:作业组ID号。

  • %J:运行作业的作业号.步号(如128.0)。

  • %j:运行作业的作业号

  • %s:运行作业的作业步号。

  • %N:短格式节点名,每个节点将生成的不同的IO文件。

  • %n:当前作业相关的节点标记(如“0”是运行作业的第一个节点),每个节点将生成的不同的IO文件。

  • %t:与当前作业相关的任务标记(rank),每个rank将生成一个不同的IO文件。

  • %u:用户名。

  • 在%与格式化标记符之间的数字可以用于生成前导零,如:

  • job%J.out:job128.0.out。

  • job%4j.out:job0128.out。

  • job%j-%2t.out:job128-00.out、job128-01.out、…。

  • 交互式提交并行作业:srun

    srun可以交互式提交运行并行作业,提交后,作业等待运行,等运行完毕后,才返回终端。语法为:srun [OPTIONS...] executable [args...]

    主要输入环境变量

    一些提交选项可通过环境变量来设置,命令行的选项优先级高于设置的环境变量,将覆盖掉环境变量的设置。环境变量与对应的参数如下:

  • SLURM_ACCOUNT:类似-A, --account。

  • SLURM_ACCTG_FREQ:类似--acctg-freq。

  • SLURM_BCAST:类似--bcast。

  • SLURM_COMPRESS:类似--compress。

  • SLURM_CORE_SPEC:类似--core-spec。

  • SLURM_CPU_BIND:类似--cpu-bind。

  • SLURM_CPUS_PER_GPU:类似-c, --cpus-per-gpu。

  • SLURM_CPUS_PER_TASK:类似-c, --cpus-per-task。

  • SLURM_DEBUG:类似-v, --verbose。

  • SLURM_DEPENDENCY:类似-P, --dependency=<jobid>。

  • SLURM_DISABLE_STATUS:类似-X, --disable-status。

  • SLURM_DIST_PLANESIZE:类似-m plane。

  • SLURM_DISTRIBUTION:类似-m, --distribution。

  • SLURM_EPILOG:类似--epilog。

  • SLURM_EXCLUSIVE:类似--exclusive。

  • SLURM_EXIT_ERROR:Slurm出错时的退出码。

  • SLURM_EXIT_IMMEDIATE:当--immediate使用时且资源当前无效时的Slurm退出码。

  • SLURM_GEOMETRY:类似-g, --geometry。

  • SLURM_GPUS:类似-G, --gpus。

  • SLURM_GPU_BIND:类似--gpu-bind。

  • SLURM_GPU_FREQ:类似--gpu-freq。

  • SLURM_GPUS_PER_NODE:类似--gpus-per-node。

  • SLURM_GPUS_PER_TASK:类似--gpus-per-task。

  • SLURM_GRES:类似--gres,参见SLURM_STEP_GRES

  • SLURM_HINT:类似--hint。

  • SLURM_IMMEDIATE:类似-I, --immediate。

  • SLURM_JOB_ID:类似--jobid。

  • SLURM_JOB_NAME:类似-J, --job-name。

  • SLURM_JOB_NODELIST:类似-w, –nodelist=<host1,host2,… or filename>,格式类似node[1-10,11,13-28]。

  • SLURM_JOB_NUM_NODES:分配的总节点数。

  • SLURM_KILL_BAD_EXIT:类似-K, --kill-on-bad-exit。

  • SLURM_LABELIO:类似-l, --label。

  • SLURM_LINUX_IMAGE:类似--linux-image。

  • SLURM_MEM_BIND:类似--mem-bind。

  • SLURM_MEM_PER_CPU:类似--mem-per-cpu。

  • SLURM_MEM_PER_NODE:类似--mem。

  • SLURM_MPI_TYPE:类似--mpi。

  • SLURM_NETWORK:类似--network。

  • SLURM_NNODES:类似-N, --nodes,即将废弃。

  • SLURM_NO_KILL:类似-k, --no-kill。

  • SLURM_NTASKS:类似-n, --ntasks。

  • SLURM_NTASKS_PER_CORE:类似--ntasks-per-core。

  • SLURM_NTASKS_PER_SOCKET:类似--ntasks-per-socket。

  • SLURM_NTASKS_PER_NODE:类似--ntasks-per-node。

  • SLURM_OPEN_MODE:类似--open-mode。

  • SLURM_OVERCOMMIT:类似-O, --overcommit。

  • SLURM_PARTITION:类似-p, --partition。

  • SLURM_PROFILE:类似--profile。

  • SLURM_PROLOG:类似--prolog,仅限srun

  • SLURM_QOS:类似--qos。

  • SLURM_REMOTE_CWD:类似-D, --chdir=。

  • SLURM_RESERVATION:类似--reservation。

  • SLURM_RESV_PORTS:类似--resv-ports。

  • SLURM_SIGNAL:类似--signal。

  • SLURM_STDERRMODE:类似-e, --error。

  • SLURM_STDINMODE:类似-i, --input。

  • SLURM_SRUN_REDUCE_TASK_EXIT_MSG:如被设置,并且非0,那么具有相同退出码的连续的任务退出消息只显示一次。

  • SLURM_STEP_GRES:类似--gres(仅对作业步有效,不影响作业分配),参见SLURM_GRES

  • SLURM_STEP_KILLED_MSG_NODE_ID=ID:如被设置,当作业或作业步被信号终止时只特定ID的节点下显示信息。

  • SLURM_STDOUTMODE:类似-o, --output。

  • SLURM_TASK_EPILOG:类似--task-epilog。

  • SLURM_TASK_PROLOG:类似--task-prolog。

  • SLURM_TEST_EXEC:如被定义,在计算节点执行之前先在本地节点上测试可执行程序。

  • SLURM_THREAD_SPEC:类似--thread-spec。

  • SLURM_THREADS:类似-T, --threads。

  • SLURM_TIMELIMIT:类似-t, --time。

  • SLURM_UNBUFFEREDIO:类似-u, --unbuffered。

  • SLURM_USE_MIN_NODES:类似--use-min-nodes。

  • SLURM_WAIT:类似-W, --wait。

  • SLURM_WORKING_DIR:类似-D, --chdir。

  • SRUN_EXPORT_ENV:类似--export,将覆盖掉SLURM_EXPORT_ENV

  • 主要输出环境变量

    srun会在执行的节点上设置如下环境变量:

  • SLURM_CLUSTER_NAME:集群名。

  • SLURM_CPU_BIND_VERBOSE:--cpu-bind详细情况(quiet、verbose)。

  • SLURM_CPU_BIND_TYPE:--cpu-bind类型(none、rank、map-cpu:、mask-cpu:)。

  • SLURM_CPU_BIND_LIST:--cpu-bind映射或掩码列表。

  • SLURM_CPU_FREQ_REQ:需要的CPU频率资源,参见--cpu-freq和输入环境变量SLURM_CPU_FREQ_REQ

  • SLURM_CPUS_ON_NODE:节点上的CPU颗数。

  • SLURM_CPUS_PER_GPU:每颗GPU对应的CPU颗数,参见--cpus-per-gpu选项指定。

  • SLURM_CPUS_PER_TASK:每作业的CPU颗数,参见--cpus-per-task选项指定。

  • SLURM_DISTRIBUTION:分配的作业的分布类型,参见-m, --distribution。

  • SLURM_GPUS:需要的GPU颗数,仅提交时有-G, --gpus时。

  • SLURM_GPU_BIND:指定绑定任务到GPU,仅提交时具有--gpu-bind参数时。

  • SLURM_GPU_FREQ:需求的GPU频率,仅提交时具有--gpu-freq参数时。

  • SLURM_GPUS_PER_NODE:需要的每个节点的GPU颗数,仅提交时具有--gpus-per-node参数时。

  • SLURM_GPUS_PER_SOCKET:需要的每个socket的GPU颗数,仅提交时具有--gpus-per-socket参数时。

  • SLURM_GPUS_PER_TASK:需要的每个任务的GPU颗数,仅提交时具有--gpus-per-task参数时。

  • SLURM_GTIDS:此节点上分布的全局任务号,从0开始,以,分隔。

  • SLURM_JOB_ACCOUNT:作业的记账名。

  • SLURM_JOB_CPUS_PER_NODE:每个节点的CPU颗数,格式类似40(x3),3,顺序对应SLURM_JOB_NODELIST节点名顺序。

  • SLURM_JOB_DEPENDENCY:依赖关系,参见--dependency选项。

  • SLURM_JOB_ID:作业号。

  • SLURM_JOB_NAME:作业名,参见--job-name选项或srun启动的命令名。

  • SLURM_JOB_PARTITION:作业使用的队列名。

  • SLURM_JOB_QOS:作业的服务质量QOS。

  • SLURM_JOB_RESERVATION:作业的高级资源预留。

  • SLURM_LAUNCH_NODE_IPADDR:任务初始启动节点的IP地址。

  • SLURM_LOCALID:节点本地任务号。

  • SLURM_MEM_BIND_LIST:--mem-bind映射或掩码列表(<list of IDs or masks for this node>)。

  • SLURM_MEM_BIND_PREFER:--mem-bin prefer优先权。

  • SLURM_MEM_BIND_TYPE:--mem-bind类型(none、rank、map-mem:、mask-mem:)。

  • SLURM_MEM_BIND_VERBOSE:内存绑定详细情况,参见--mem-bind verbosity(quiet、verbose)。

  • SLURM_MEM_PER_GPU:每颗GPU需求的内存,参见--mem-per-gpu。

  • SLURM_NODE_ALIASES:分配的节点名、通信IP地址和节点名,每组内采用:分隔,组间通过,分隔,如:SLURM_NODE_ALIASES=0:1.2.3.4:foo,ec1:1.2.3.5:bar。

  • SLURM_NODEID:当前节点的相对节点号。

  • SLURM_NODELIST:分配的节点列表,格式类似node[1-10,11,13-28]。

  • SLURM_NTASKS:任务总数。

  • SLURM_PRIO_PROCESS:作业提交时的调度优先级值(nice值)。

  • SLURM_PROCID:当前MPI秩号。

  • SLURM_SRUN_COMM_HOST :节点的通信IP。

  • SLURM_SRUN_COMM_PORT:srun的通信端口。

  • SLURM_STEP_LAUNCHER_PORT:作业步启动端口。

  • SLURM_STEP_NODELIST:作业步节点列表,格式类似node[1-10,11,13-28]。

  • SLURM_STEP_NUM_NODES:作业步的节点总数。

  • SLURM_STEP_NUM_TASKS:作业步的任务总数。

  • SLURM_STEP_TASKS_PER_NODE:作业步在每个节点上的任务总数,格式类似40(x3),3,顺序对应SLURM_JOB_NODELIST节点名顺序。

  • SLURM_STEP_ID:当前作业的作业步号。

  • SLURM_SUBMIT_DIR:提交作业的目录,或有可能由-D,–chdir参数指定。

  • SLURM_SUBMIT_HOST:提交作业的节点名。

  • SLURM_TASK_PID:任务启动的进程号。

  • SLURM_TASKS_PER_NODE:每个节点上启动的任务数,以SLURM_NODELIST中的节点顺序显示,以,分隔。如果两个或多个连续节点上的任务数相同,数后跟着(x#),其中#是对应的节点数,如SLURM_TASKS_PER_NODE=2(x3),1”表示,前三个节点上的作业数为3,第四个节点上的任务数为1。

  • SLURM_UMASK:作业提交时的umask掩码。

  • SLURMD_NODENAME:任务运行的节点名。

  • SRUN_DEBUG:srun命令的调试详细信息级别,默认为3(info级)。

  • 多程序运行配置

    Slurm支持一次申请多个节点,在不同节点上同时启动执行不同任务。为实现次功能,需要生成一个配置文件,在配置文件中做相应设置。

    配置文件中的注释必需第一列为#,配置文件包含以空格分隔的以下域(字段):

  • 任务范围(Task rank):一个或多个任务秩,多个值的话可以用逗号,分隔。范围可以用两个用-分隔的整数表示,小数在前,大数在后。如果最后一行为*,则表示全部其余未在前面声明的秩。如没有指明可执行程序,则会显示错误信息:“No executable program specified for this task”。

  • 需要执行的可执行程序(Executable):也许需要绝对路径指明。

  • 可执行程序的参数(Arguments):“%t”将被替换为任务号;“%o”将被替换为任务号偏移(如配置的秩为“1-5”,则偏移值为“0-4”)。单引号可以防止内部的字符被解释。此域为可选项,任何在命令行中需要添加的程序参数都将加在配置文件中的此部分。

  • 例如,配置文件silly.conf内容为:

    ###################################################################
    # srun multiple program configuration file
    # srun -n8 -l --multi-prog silly.conf
    ###################################################################
    4-6       hostname
    1,7       echo  task:%t
    0,2-3     echo  offset:%o
    

    运行:srun -n8 -l --multi-prog silly.conf

    输出结果:

    0: offset:0
    1: task:1
    2: offset:1
    3: offset:2
    4: node1
    5: node2
    6: node4
    7: task:7
    

    输出结果:

    JOBID PARTITION     NAME     USER  ST      TIME  NODES NODELIST
    65641     batch  test.sh   grondo   R      0:01      4 dev[7-10]
    STEPID     PARTITION     USER      TIME NODELIST
    65641.0        batch   grondo      0:01 dev[7-8]
    65641.1        batch   grondo      0:01 dev[9-10]
    
  • 运行MPICH作业:

    脚本test.sh内容:

    #!/bin/sh
    MACHINEFILE="nodes.$SLURM_JOB_ID"
    # 生成MPICH所需的包含节点名的machinfile文件
    srun -l /bin/hostname | sort -n | awk {print $2} > $MACHINEFILE
    # 运行MPICH作业
    mpirun -np $SLURM_NTASKS -machinefile $MACHINEFILE mpi-app
    rm $MACHINEFILE
    

    采用2个节点(-N2)共4个CPU核(-n4)运行:salloc -N2 -n4 test.sh

  • 利用不同节点号(SLURM_NODEID)运行不同作业,节点号从0开始:

    脚本test.sh内容:

    case $SLURM_NODEID in
            echo "I am running on "
            hostname
            hostname
            echo "is where I am running"
    

    运行: srun -N2 test.sh

    dev0 is where I am running I am running on ev1
    
  • 利用多核选项控制任务执行:

    采用2个节点(-N2),每节点4颗CPU每颗CPU 2颗CPU核(-B 4-4:2-2),运行作业:

    srun -N2 -B 4-4:2-2 a.out

  • 运行GPU作业: 脚本gpu.sh内容:

  • #!/bin/bash
    srun -n1 -p GPU-V100 --gres=gpu:v100:2 prog1 &
    

    -p GPU-V100指定采用GPU队列GPU-V100,–gres=gpu:v100:2指明每个节点使用2块NVIDIA V100 GPU卡。

  • 排它性独占运行作业:

    脚本my.sh内容:

    #!/bin/bash
    srun --exclusive -n4 prog1 &
    srun --exclusive -n3 prog2 &
    srun --exclusive -n1 prog3 &
    srun --exclusive -n1 prog4 &
    

    批处理方式提交作业:sbatch

    Slurm支持利用sbatch命令采用批处理方式运行作业,sbatch命令在脚本正确传递给作业调度系统后立即退出,同时获取到一个作业号。作业等所需资源满足后开始运行。

    sbatch提交一个批处理作业脚本到Slurm。批处理脚本名可以在命令行上通过传递给sbatch,如没有指定文件名,则sbatch从标准输入中获取脚本内容。

    脚本文件基本格式:

  • 第一行以#!/bin/sh等指定该脚本的解释程序,/bin/sh可以变为/bin/bash、/bin/csh等。

  • 在可执行命令之前的每行“#SBATCH”前缀后跟的参数作为作业调度系统参数。在任何非注释及空白之后的“#SBATCH”将不再作为Slurm参数处理。

  • 默认,标准输出和标准出错都定向到同一个文件slurm-%j.out,“%j”将被作业号代替。

    脚本myscript内容:

    #!/bin/sh
    #SBATCH --time=1
    #SBATCH -p serial
    srun hostname |sort
    

    采用4个节点(-N4)运行:sbatch -p batch -N4 myscript

    在这里,虽然脚本中利用“#SBATCH -p serial”指定了使用serial队列,但命令行中的-p batch优先级更高,因此实际提交到batch队列。

    提交成功后有类似输出:

    salloc: Granted job allocation 65537
    

    其中65537为分配的作业号。

    程序结束后的作业日志文件slurm-65537.out显示:

    node1
    node2
    node3
    node4
    

    从标准输入获取脚本内容,可采用以下两种方式之一:

  • 运行sbatch -N4,显示等待后输入:

  • #!/bin/sh
    srun hostname |sort
    

    输入以上内容后按CTRL+D终止输入。

  • 运行sbatch -N4 <<EOF

  • > #!/bin/sh
    > srun hostname | sort
      -  第一个EOF表示输入内容的开始标识符
      -  最后的EOF表示输入内容的终止标识符,在两个EOF之间的内容为实际执行的内容。
      -  >实际上是每行输入回车后自动在下一行出现的提示符。
    

    以上两种方式输入结束后将显示:

    sbatch: Submitted batch job 65541
    

    常见主要选项参见9.1

    主要输入环境变量

    一些选项可通过环境变量来设置,命令行的选项优先级高于设置的环境变量,将覆盖掉环境变量的设置。环境变量与对应的参数如下:

  • SBATCH_ACCOUNT:类似-A、--account。

  • SBATCH_ACCTG_FREQ:类似--acctg-freq。

  • SBATCH_ARRAY_INX:类似-a、--array。

  • SBATCH_BATCH:类似--batch。

  • SBATCH_CLUSTERS SLURM_CLUSTERS:类似--clusters。

  • SBATCH_CONSTRAINT:类似-C, --constraint。

  • SBATCH_CORE_SPEC:类似--core-spec。

  • SBATCH_CPUS_PER_GPU:类似--cpus-per-gpu。

  • SBATCH_DEBUG:类似-v、--verbose。

  • SBATCH_DISTRIBUTION:类似-m、--distribution。

  • SBATCH_EXCLUSIVE:类似--exclusive。

  • SBATCH_EXPORT:类似--export。

  • SBATCH_GEOMETRY:类似-g、--geometry。

  • SBATCH_GET_USER_ENV:类似--get-user-env。

  • SBATCH_GPUS:类似 -G, --gpus。

  • SBATCH_GPU_BIND:类似 --gpu-bind。

  • SBATCH_GPU_FREQ:类似 --gpu-freq。

  • SBATCH_GPUS_PER_NODE:类似 --gpus-per-node。

  • SBATCH_GPUS_PER_TASK:类似 --gpus-per-task。

  • SBATCH_GRES:类似 --gres。

  • SBATCH_GRES_FLAGS:类似--gres-flags。

  • SBATCH_HINT SLURM_HINT:类似--hint。

  • SBATCH_IGNORE_PBS:类似--ignore-pbs。

  • SBATCH_JOB_NAME:类似-J、--job-name。

  • SBATCH_MEM_BIND:类似--mem-bind。

  • SBATCH_MEM_PER_CPU:类似--mem-per-cpu。

  • SBATCH_MEM_PER_GPU:类似--mem-per-gpu。

  • SBATCH_MEM_PER_NODE:类似--mem。

  • SBATCH_NETWORK:类似--network。

  • SBATCH_NO_KILL:类似-k, –no-kill。

  • SBATCH_NO_REQUEUE:类似--no-requeue。

  • SBATCH_OPEN_MODE :类似--open-mode。

  • SBATCH_OVERCOMMIT:类似-O、--overcommit。

  • SBATCH_PARTITION:类似-p、--partition。

  • SBATCH_PROFILE:类似--profile。

  • SBATCH_QOS:类似--qos。

  • SBATCH_RAMDISK_IMAGE:类似--ramdisk-image。

  • SBATCH_RESERVATION:类似--reservation。

  • SBATCH_REQUEUE:类似--requeue。

  • SBATCH_SIGNAL:类似--signal。

  • SBATCH_THREAD_SPEC:类似--thread-spec。

  • SBATCH_TIMELIMIT:类似-t、--time。

  • SBATCH_USE_MIN_NODES:类似--use-min-nodes。

  • SBATCH_WAIT:类似-W、--wait。

  • SBATCH_WAIT_ALL_NODES:类似--wait-all-nodes。

  • SBATCH_WAIT4SWITCH:需要交换的最大时间,参见See--switches。

  • SLURM_EXIT_ERROR:设定Slurm出错时的退出码。

  • SLURM_STEP_KILLED_MSG_NODE_ID=ID:如果设置,当作业或作业步被信号终止时,只有指定ID的节点记录。

  • 主要输出环境变量

    Slurm将在作业脚本中输出以下变量,作业脚本可以使用这些变量:

  • SBATCH_MEM_BIND:--mem-bind选项设定。

  • SBATCH_MEM_BIND_VERBOSE:如--mem-bind选项包含verbose选项时,则由其设定。

  • SBATCH_MEM_BIND_LIST:内存绑定时设定的bit掩码。

  • SBATCH_MEM_BIND_PREFER:--mem-bin prefer优先权。

  • SBATCH_MEM_BIND_TYPE:由--mem-bind选项设定。

  • SLURM_ARRAY_TASK_ID:作业组ID(索引)号。

  • SLURM_ARRAY_TASK_MAX:作业组最大ID号。

  • SLURM_ARRAY_TASK_MIN:作业组最小ID号。

  • SLURM_ARRAY_TASK_STEP:作业组索引步进间隔。

  • SLURM_ARRAY_JOB_ID:作业组主作业号。

  • SLURM_CLUSTER_NAME:集群名。

  • SLURM_CPUS_ON_NODE:分配的节点上的CPU颗数。

  • SLURM_CPUS_PER_GPU:每个任务的CPU颗数,只有--cpus-per-gpu选项设定时才有。

  • SLURM_CPUS_PER_TASK:每个任务的CPU颗数,只有--cpus-per-task选项设定时才有。

  • SLURM_DISTRIBUTION:类似-m, --distribution。

  • SLURM_EXPORT_ENV:类似-e, --export。

  • SLURM_GPU_BIND:指定绑定任务到GPU,仅提交时具有--gpu-bind参数时。

  • SLURM_GPU_FREQ:需求的GPU频率,仅提交时具有--gpu-freq参数时。

  • SLURM_GPUS Number of GPUs requested. Only set if the -G, --gpus option is specified.

  • SLURM_GPU_BIND:需要的任务绑定到GPU,仅提交时有–gpu-bind参数时。

  • SLURM_GPUS_PER_NODE:需要的每个节点的GPU颗数,仅提交时具有--gpus-per-node参数时。

  • SLURM_GPUS_PER_SOCKET:需要的每个socket的GPU颗数,仅提交时具有--gpus-per-socket参数时。

  • SLURM_GPUS_PER_TASK:需要的每个任务的GPU颗数,仅提交时具有--gpus-per-task参数时。

  • SLURM_GTIDS:在此节点上运行的全局任务号。以0开始,逗号,分隔。

  • SLURM_JOB_ACCOUNT:作业的记账账户名。

  • SLURM_JOB_ID:作业号。

  • SLURM_JOB_CPUS_PER_NODE:每个节点上的CPU颗数,格式类似40(x3),3,顺序对应SLURM_JOB_NODELIST节点名顺序。

  • SLURM_JOB_DEPENDENCY:作业依赖信息,由--dependency选项设置。

  • SLURM_JOB_NAME:作业名。

  • SLURM_JOB_NODELIST:分配的节点名列表,格式类似node[1-10,11,13-28]。

  • SLURM_JOB_NUM_NODES:分配的节点总数。

  • SLURM_JOB_PARTITION:使用的队列名。

  • SLURM_JOB_QOS:需要的服务质量(QOS)。

  • SLURM_JOB_RESERVATION:作业预留。

  • SLURM_LOCALID:节点本地任务号。

  • SLURM_MEM_PER_CPU:类似--mem-per-cpu,每颗CPU需要的内存。

  • SLURM_MEM_PER_GPU:类似--mem-per-gpu,每颗GPU需要的内存。

  • SLURM_MEM_PER_NODE:类似--mem,每个节点的内存。

  • SLURM_NODE_ALIASES:分配的节点名、通信IP地址和主机名组合,类似 SLURM_NODE_ALIASES=ec0:1.2.3.4:foo,ec1:1.2.3.5:bar。

  • SLURM_NODEID:分配的节点号。

  • SLURM_NTASKS:类似-n, --ntasks,总任务数,CPU核数。

  • SLURM_NTASKS_PER_CORE:每个CPU核分配的任务数。

  • SLURM_NTASKS_PER_NODE:每个节点上的任务数 。

  • SLURM_NTASKS_PER_SOCKET:每颗CPU上的任务数,仅--ntasks-per-socket选项设定时设定。

  • SLURM_PRIO_PROCESS:进程的调度优先级(nice值)。

  • SLURM_PROCID:当前进程的MPI秩。

  • SLURM_PROFILE:类似--profile。

  • SLURM_RESTART_COUNT:因为系统失效等导致的重启次数。

  • SLURM_SUBMIT_DIR:sbatch启动目录,即提交作业时目录,或提交时由-D, --chdir参数指定的。

  • SLURM_SUBMIT_HOST:sbatch启动的节点名,即提交作业时节点。

  • SLURM_TASKS_PER_NODE:每节点上的任务数,以SLURM_NODELIST中的节点顺序显示,以,分隔。如果两个或多个连续节点上的任务数相同,数后跟着(x#),其中#是对应的节点数,如“SLURM_TASKS_PER_NODE=2(x3),1”表示前三个节点上的作业数为3,第四个节点上的任务数为1。

  • SLURM_TASK_PID:任务的进程号PID。

  • SLURMD_NODENAME:执行作业脚本的节点名。

  • 串行作业提交

    对于串行程序,用户可类似下面两者之一:

  • 直接采用sbatch -n1 -o job-%j.log -e job-%j.err yourprog方式运行

  • 编写命名为serial_job.sh(此脚本名可以按照用户喜好命名)的串行作业脚本,其内容如下:

  • #!/bin/sh
    #An example for serial job.
    #SBATCH -J job_name
    #SBATCH -o job-%j.log
    #SBATCH -e job-%j.err
    echo Running on hosts
    echo Time is `date`
    echo Directory is $PWD
    echo This job runs on the following nodes:
    echo $SLURM_JOB_NODELIST
    module load intel/2019.update5
    echo This job has allocated 1 cpu core.
    ./yourprog
    

    必要时需在脚本文件中利用module命令设置所需的环境,如上面的module load intel/2019.update5

    作业脚本编写完成后,可以按照下面命令提交作业:

    hmli@login01:~/work$ sbatch -n1 -p serail serial_job.sh

    OpenMP共享内存并行作业提交

    对于OpenMP共享内存并行程序,可编写命名为omp_job.sh的作业脚本,内容如下:

    #!/bin/sh
    #An example for serial job.
    #SBATCH -J job_name
    #SBATCH -o job-%j.log
    #SBATCH -e job-%j.err
    #SBATCH -N 1 -n 8
    echo Running on hosts
    echo Time is `date`
    echo Directory is $PWD
    echo This job runs on the following nodes:
    echo $SLURM_JOB_NODELIST
    module load intel/2016.3.210
    echo This job has allocated 1 cpu core.
    export OMP_NUM_THREADS=8
    ./yourprog
    

    相对于串行作业脚本,主要增加export OMP_NUM_THREADS=8#SBATCH -N 1 -n 8,表示使用一个节点内部的八个核,从而保证是在同一个节点内部,需几个核就设置-n为几。-n后跟的不能超过单节点内CPU核数。

    作业脚本编写完成后,可以按照下面命令提交作业:

    hmli@login01:~/work$ sbatch omp_job.sh

    MPI并行作业提交

    与串行作业类似,对于MPI并行作业,则需编写类似下面脚本mpi_job.sh

    #!/bin/sh
    #An example for MPI job.
    #SBATCH -J job_name
    #SBATCH -o job-%j.log
    #SBATCH -e job-%j.err
    #SBATCH -N 1 -n 8
    echo Time is `date`
    echo Directory is $PWD
    echo This job runs on the following nodes:
    echo $SLURM_JOB_NODELIST
    echo This job has allocated $SLURM_JOB_CPUS_PER_NODE cpu cores.
    module load intelmpi/5.1.3.210
    #module load mpich/3.2/intel/2016.3.210
    #module load openmpi/2.0.0/intel/2016.3.210
    MPIRUN=mpirun #Intel mpi and Open MPI
    #MPIRUN=mpiexec #MPICH
    MPIOPT="-env I_MPI_FABRICS shm:ofa" #Intel MPI 2018
    #MPIOPT="-env I_MPI_FABRICS shm:ofi" #Intel MPI 2019
    #MPIOPT="--mca plm_rsh_agent ssh --mca btl self,openib,sm" #Open MPI
    #MPIOPT="-iface ib0" #MPICH3
    #目前新版的MPI可以自己找寻高速网络配置,可以设置MPIOPT为空,如去掉下行的#
    MPIOPT=
    $MPIRUN $MPIOPT ./yourprog
    

    与串行程序的脚本相比,主要不同之处在于需采用mpirun或mpiexec的命令格式提交并行可执行程序。采用不同MPI提交时,需要打开上述对应的选项。

    与串行作业类似,可使用下面方式提交:

    hmli@login01:~/work$ sbatch mpi_job.sh

    GPU作业提交

    运行GPU作业,需要提交时利用--gres=gpu等指明需要的GPU资源并用-p指明采用等GPU队列。

    脚本gpu_job.sh内容:

    #!/bin/sh
    #An example for gpu job.
    #SBATCH -J job_name
    #SBATCH -o job-%j.log
    #SBATCH -e job-%j.err
    #SBATCH -N 1 -n 8 -p GPU-V100 --gres=gpu:v100:2
    ./your-gpu-prog
    

    上面-p GPU-V100指定采用GPU队列GPU-V100,--gres=gpu:v100:2指明每个节点使用2块NVIDIA V100 GPU卡。

    作业获取的节点名及对应CPU核数解析

    作业调度系统主要负责分配节点及该节点分配的CPU核数等,在Slurm作业脚本中利用环境变量可以获取分配到的节点名(SLURM_JOB_NODELIST及对应核数(SLURM_JOB_CPUS_PER_NODE)或对应的任务数(SLURM_TASKS_PER_NODE),然后根据自己程序原始的命令在Slurm脚本中进行修改就成。

    SLURM_JOB_NODELISTSLURM_TASKS_PER_NODE有一定的格式,以下为一个参考解析脚本,可以在自己的Slurm脚本中参考获取自己的节点等信息。

    上面只是例子,要加在自己的Slurm脚本中,而不是先提交上面这个脚本获取节点名后放到slurm脚本中,其原因在于除非提交时指定节点名,否则每次提交后获取的节点名等是有可能变的。比如针对star-cmm+软件,原来的方式是:

    /STATCMM+PATH/bin/starccm+ -rsh ssh -batch -power -on cnode400:40,cnode432:40 FireAndSmokeResampled.sim >residual.log

    则可以改为下面脚本:

    #!/bin/bash
    #Auther HM_Li<hmli@ustc.edu.cn>
    #SLURM_JOB_NODELIST=cnode[001-003,005,440-441]
    BASENAME=${SLURM_JOB_NODELIST%[*}
    LIST=${SLURM_JOB_NODELIST#*[}
    LIST=${LIST%]}
    IDLIST=''
    for i in `echo $LIST | tr ',' ' '`
       if [[ $i =~ '-' ]]; then
          IDLIST=$IDLIST' '`seq -w `echo $i | tr '-' ' '``
          IDLIST=$IDLIST' '$i
    NODELIST=''
    for i in $IDLIST
        NODELIST=$NODELIST" $BASENAME"$i
    echo -e "Node list: \n\t"$NODELIST
    #SLURM_TASKS_PER_NODE='40(x3),23,20(x2)'
    #SLURM_JOB_CPUS_PER_NODE='40(x3),23,20(x2)'
    CORELIST=''
    for i in `echo $SLURM_JOB_CUPS_PER_NODE| tr ',' ' '`
      if [[ $i =~ 'x' ]]; then
         read CORES NODES <<<`echo $i| tr '(x)' ' '`
         for n in `seq 1 $NODES`
             CORELIST=$CORELIST' '$CORES
         CORELIST=$CORELIST' '$i
    echo -e "\nCPU Core list: \n\t$CORELIST"
    echo -e "\nNode list with corresponding CPU Cores: "
    CARR=(${CORELIST})
    i=0
    for n in $NODELIST
        echo -e "\t"$n: ${CARR[$i]}
        i=$(($i+1))
    

    分配式提交作业:salloc

    salloc将获取作业的分配后执行命令,当命令结束后释放分配的资源。其基本语法为:

    salloc [options] [<command> [command args]]

    command可以是任何是用户想要用的程序,典型的为xterm或包含srun命令的shell。如果后面没有跟命令,那么将执行Slurm系统slurm.conf配置文件中通过SallocDefaultCommand设定的命令。如果SallocDefaultCommand没有设定,那么将执行用户的默认shell。

    注意:salloc逻辑上包括支持保存和存储终端行设置,并且设计为采用前台方式执行。如果需要后台执行salloc,可以设定标准输入为某个文件,如:salloc -n16 a.out </dev/null &

    作业获取的节点名及对应CPU核数解析

    作业调度系统主要负责分配节点及该节点分配的CPU核数等,在Slurm作业脚本中利用环境变量可以获取分配到的节点名(SLURM_JOB_NODELIST及对应核数(SLURM_JOB_CPUS_PER_NODE)或对应的任务数(SLURM_TASKS_PER_NODE),然后根据自己程序原始的命令在Slurm脚本中进行修改就成。

    SLURM_JOB_NODELISTSLURM_TASKS_PER_NODE有一定的格式,以下为一个参考解析脚本,可以在自己的Slurm脚本中参考获取自己的节点等信息。

    #!/bin/bash
    #Auther HM_Li<hmli@ustc.edu.cn>
    #SLURM_JOB_NODELIST=cnode[001-003,005,440-441]
    BASENAME=${SLURM_JOB_NODELIST%[*}
    LIST=${SLURM_JOB_NODELIST#*[}
    LIST=${LIST%]}
    IDLIST=''
    for i in `echo $LIST | tr ',' ' '`
      if [[ $i =~ '-' ]]; then
         IDLIST=$IDLIST' '`seq -w `echo $i | tr '-' ' '``
         IDLIST=$IDLIST' '$i
    NODELIST=''
    for i in $IDLIST
       NODELIST=$NODELIST" $BASENAME"$i
    echo -e "Node list: \n\t"$NODELIST
    #SLURM_TASKS_PER_NODE='40(x3),23,20(x2)'
    #SLURM_JOB_CPUS_PER_NODE='40(x3),23,20(x2)'
    CORELIST=''
    for i in `echo $SLURM_JOB_CUPS_PER_NODE| tr ',' ' '`
      if [[ $i =~ 'x' ]]; then
        read CORES NODES <<<`echo $i | tr '(x)' ' '`
        for n in `seq 1 $NODES`
           CORELIST=$CORELIST' '$CORES
        CORELIST=$CORELIST' '$i
    echo -e "\nCPU Core list: \n\t$CORELIST"
    echo -e "\nNode list with corresponding CPU Cores: "
    CARR=(${CORELIST})
    i=0
    for n in $NODELIST
       echo -e "\t"$n: ${CARR[$i]}
       i=$(($i+1))
    

    上面只是例子,要加在自己的Slurm脚本中,而不是先提交上面这个脚本获取节点名后放到slurm脚本中,其原因在于除非提交时指定节点名,否则每次提交后获取的节点名等是有可能变的。比如针对star-cmm+软件,原来的方式是:

    /STATCMM+PATH/bin/starccm+ -rsh ssh -batch -power -on cnode400:40,cnode432:40 FireAndSmokeResampled.sim >residual.log

    则可以改为下面脚本:

    #!/bin/sh
    #An example for MPI job.
    #SBATCH -J job_name
    #SBATCH -o job-%j.log
    #SBATCH -e job-%j.err
    echo This job runs on the following nodes:
    echo $SLURM_JOB_NODELIST
    echo This job has allocated $SLURM_JOB_CPUS_PER_NODE cpu cores.
    BASENAME=${SLURM_JOB_NODELIST%[*}
    LIST=${SLURM_JOB_NODELIST#*[}
    LIST=${LIST%]}
    IDLIST=''
    for i in `echo $LIST | tr ',' ' '`
      if [[ $i =~ '-' ]]; then
         T=`echo $i| tr '-' ' '`
         IDLIST=$IDLIST' '`seq -w $T`
         IDLIST=$IDLIST' '$i
    NODEOPT=''
    for i in $IDLIST
       NODEOPT=
    
    
    
    
        
    $NODEOPT,$BASENAME$i:40
    NODEOPT=${NODEOPT:1} #trim the first ,
    /STARCMM+PATH/bin/starccm+ -rsh ssh -batch -power -on $NODEOPT FireAndSmokeResampled.sim > residual.log
    
  • SALLOC_ACCTG_FREQ:类似--acctg-freq

  • SALLOC_BELL:类似--bell

  • SALLOC_CLUSTERSSLURM_CLUSTERS:类似--clusters。

  • SALLOC_CONSTRAINT:类似-C, --constraint。

  • SALLOC_CORE_SPEC:类似 --core-spec。

  • SALLOC_CPUS_PER_GPU:类似 --cpus-per-gpu。

  • SALLOC_DEBUG:类似-v, --verbose。

  • SALLOC_EXCLUSIVE:类似--exclusive。

  • SALLOC_GEOMETRY:类似-g, --geometry。

  • SALLOC_GPUS:类似 -G, --gpus。

  • SALLOC_GPU_BIND:类似 --gpu-bind。

  • SALLOC_GPU_FREQ:类似 --gpu-freq。

  • SALLOC_GPUS_PER_NODE:类似 --gpus-per-node。

  • SALLOC_GPUS_PER_TASK:类似 --gpus-per-task。

  • SALLOC_GRES:类似 --gres。

  • SALLOC_GRES_FLAGS:类似--gres-flags。

  • SALLOC_HINTSLURM_HINT:类似--hint。

  • SALLOC_IMMEDIATE:类似-I, --immediate。

  • SALLOC_KILL_CMD:类似-K, --kill-command。

  • SALLOC_MEM_BIND:类似--mem-bind。

  • SALLOC_MEM_PER_CPU:类似 --mem-per-cpu。

  • SALLOC_MEM_PER_GPU:类似 --mem-per-gpu

  • SALLOC_MEM_PER_NODE:类似 --mem。

  • SALLOC_NETWORK:类似--network。

  • SALLOC_NO_BELL:类似--no-bell。

  • SALLOC_OVERCOMMIT:类似-O, --overcommit。

  • SALLOC_PARTITION:类似-p, --partition。

  • SALLOC_PROFILE:类似--profile。

  • SALLOC_QOS:类似--qos。

  • SALLOC_RESERVATION:类似--reservation。

  • SALLOC_SIGNAL:类似--signal。

  • SALLOC_SPREAD_JOB:类似--spread-job。

  • SALLOC_THREAD_SPEC:类似--thread-spec。

  • SALLOC_TIMELIMIT:类似-t, --time。

  • SALLOC_USE_MIN_NODES:类似--use-min-nodes。

  • SALLOC_WAIT_ALL_NODES:类似--wait-all-nodes。

  • SLURM_EXIT_ERROR:错误退出代码。

  • SLURM_EXIT_IMMEDIATE:当--immediate选项时指定的立即退出代码。

  • 主要输出环境变量

  • SLURM_CLUSTER_NAME:集群名。

  • SLURM_CPUS_PER_GPU:每颗GPU分配的CPU数。

  • SLURM_CPUS_PER_TASK:每个任务分配的CPU数。

  • SLURM_DISTRIBUTION:类似-m, --distribution。

  • SLURM_GPUS:需要的GPU颗数,仅提交时有-G, --gpus时。

  • SLURM_GPU_BIND:指定绑定任务到GPU,仅提交时具有--gpu-bind参数时。

  • SLURM_GPU_FREQ:需求的GPU频率,仅提交时具有--gpu-freq参数时。

  • SLURM_GPUS_PER_NODE:需要的每个节点的GPU颗数,仅提交时具有--gpus-per-node参数时。

  • SLURM_GPUS_PER_SOCKET:需要的每个socket的GPU颗数,仅提交时具有--gpus-per-socket参数时。

  • SLURM_GPUS_PER_TASK:需要的每个任务的GPU颗数,仅提交时具有--gpus-per-task参数时。

  • SLURM_JOB_ACCOUNT:账户名。

  • SLURM_JOB_IDSLURM_JOBID为向后兼容):作业号。

  • SLURM_JOB_CPUS_PER_NODE:分配的每个节点CPU数。

  • SLURM_JOB_NODELISTSLURM_NODELIST为向后兼容):分配的节点名列表。

  • SLURM_JOB_NUM_NODESSLURM_NNODES为向后兼容):作业分配的节点数。

  • SLURM_JOB_PARTITION:作业使用的队列名。

  • SLURM_JOB_QOS:作业的QOS。

  • SLURM_JOB_RESERVATION:预留的作业资源。

  • SLURM_MEM_BIND:--mem-bind选项设定。

  • SLURM_MEM_BIND_VERBOSE:如--mem-bind选项包含verbose选项时,则由其设定。

  • SLURM_MEM_BIND_LIST:内存绑定时设定的bit掩码。

  • SLURM_MEM_BIND_PREFER:--mem-bin prefer优先权。

  • SLURM_MEM_BIND_TYPE:由--mem-bind选项设定。

  • SLURM_MEM_PER_CPU:类似--mem。

  • SLURM_MEM_PER_GPU:每颗GPU需要的内存,仅提交时有--mem-per-gpu参数时。

  • SLURM_MEM_PER_NODE:类似--mem。

  • SLURM_SUBMIT_DIR:运行salloc时的目录,或提交时由-D, --chdir参数指定。

  • SLURM_SUBMIT_HOST:运行salloc时的节点名。

  • SLURM_NODE_ALIASES:分配的节点名、通信地址和主机名,格式类似 SLURM_NODE_ALIASES=ec0:1.2.3.4:foo,ec1:1.2.3.5:bar。

  • SLURM_NTASKS:类似-n, --ntasks。

  • SLURM_NTASKS_PER_CORE:--ntasks-per-core选项设定的值。

  • SLURM_NTASKS_PER_NODE:--ntasks-per-node选项设定的值。

  • SLURM_NTASKS_PER_SOCKET:--ntasks-per-socket选项设定的值。

  • SLURM_PROFILE:类似--profile。

  • SLURM_TASKS_PER_NODE:每个节点的任务数。值以,分隔,并与SLURM_NODELIST 顺序一致。如果连续的节点有相同的任务数,那么数后面跟有“(x#)”,其中“#”是重复次数。如: SLURM_TASKS_PER_NODE =2(x3),1

  • 获取分配,并打开csh,以便srun可以交互式输入:

    salloc -N16 csh

    salloc: Granted job allocation 65537
    (在此,将等待用户输入,csh退出后结束) salloc: Relinquishing job
    allocation 65537
    
  • 获取分配并并行运行应用:

    salloc -N5 srun -n10 myprogram

  • 生成三个不同组件的异构作业,每个都是独立节点:

    salloc -w node[2-3] : -w node4 : -w node[5-7] bash

    salloc: job 32294 queued and waiting for resources salloc: job 32294
    has been allocated resources salloc: Granted job allocation 32294
    

    将文件同步到各节点:sbcast

    sbcast命令可以将文件同步到各计算节点对应目录。

    当前,用户主目录是共享的,一般不需要此命令,如果用户需要将某些文件传递到分配给作业的各节点/tmp等非共享目录,那么可以考虑此命令。

    sbcast命令的基本语法为:sbcast [-CfFjpstvV] SOURCE DEST

    此命令仅对批处理作业或在Slurm资源分配后生成的shell中起作用。SOURCE是当前节点上文件名,DEST为分配给此作业的对应节点将要复制到文件全路径。

    主要参数

  • -C [library], --compress[=library]:设定采用压缩传递,及其使用的压缩库,[library]可以为lz4(默认)、zlib。

  • -f, --force:强制模式,如果目标文件存在,那么将直接覆盖。

  • -F number, --fanout=number:设定用于文件传递时的消息扇出,当前最大值为8。

  • -j jobID[.stepID], --jobid=jobID[.stepID]:指定使用的作业号。

  • -p, --preserve:保留源文件的修改时间、访问时间和模式等。

  • -s size, --size=size:设定广播时使用的块大小。size可以具有k或m后缀,默认单位为比特。默认大小为文件大小或8MB。

  • -t seconds, fB--timeout=seconds:设定消息的超时时间。

  • -v, --verbose:显示冗余信息。

  • -V, --version:显示版本信息。

  • 主要环境变量

  • SBCAST_COMPRESS:类似-C, --compress。

  • SBCAST_FANOUT:类似-F number, fB--fanout=number。

  • SBCAST_FORCE:类似-f, --force。

  • SBCAST_PRESERVE:类似-p, --preserve。

  • SBCAST_SIZE:类似-s size, --size=size。

  • SBCAST_TIMEOUT:类似-t seconds, fB--timeout=seconds。

  • my.prog传到/tmp/my.proc,且执行:

  • 生成脚本my.job

  • #!/bin/bash
    sbcast my.prog /tmp/my.prog
    srun /tmp/my.prog
    

    sbatch --nodes=8 my.job

    吸附到作业步:sattach

    sattach可以吸附到一个运行中的Slurm作业步,通过吸附,可以获取所有任务的IO流等,有时也可用于并行调试器。

    基本语法:sattach [options] <jobid.stepid>

    主要参数

  • -h, --help:显示帮助信息。

  • --input-filter[=]<task number>、 --output-filter[=]<task number>、--error-filter[=]<task number>:仅传递标准输入到一个单独任务或打印一个单个任务中的标准输出或标准错误输出。

  • -l, --label:在每行前显示其对应的任务号。

  • --layout:联系slurmctld获得任务层信息,打印层信息后退出吸附作业步。

  • --pty:在伪终端上执行0号任务。与--input-filter、--output-filter或--error-filter不兼容。

  • -Q, --quiet:安静模式。不显示一般的sattach信息,但错误信息仍旧显示。

  • -u, --usage:显示简要帮助信息。

  • -V, --version:显示版本信息。

  • -v, --verbose:显示冗余信息。

  • 主要输入环境变量

  • SLURM_CONF:Slurm配置文件。

  • SLURM_EXIT_ERROR:Slurm退出错误代码。

  • sattach 15.0

  • sattach -{}-output-filter 5 65386.15

  • -b, --brief:显示简要信息,主要包含:作业号jobid、状态status和退出码exitcode。

  • -c, --completion:显示作业完成信息而非记账信息。

  • -e, --helpformat:显示当采用 --format指定格式化输出的可用格式。

  • -E end_time, --endtime=end_time:显示在end_time时间之前(不限作业状态)的作业。有效时间格式:

  • HH:MM[:SS] [AM|PM]

  • MMDD[YY] or MM/DD[/YY] or MM.DD[.YY]

  • MM/DD[/YY]-HH:MM[:SS]

  • YYYY-MM-DD[THH:MM[:SS]]

  • -i, --nnodes=N:显示在特定节点数上运行的作业(N = min[-max)]。

  • -j job(.step), --jobs=job(.step):限制特定作业号(步)的信息,作业号(步)可以以,分隔。

  • -l, --long:显示详细信息。

  • -n, --noheader:不显示信息头(显示出的信息的第一行,表示个列含义)。

  • -N node_list, --nodelist=node_list:显示运行在特定节点的作业记账信息。

  • --name=jobname_list:显示特定作业名的作业记账信息。

  • -o, --format:以特定格式显示作业记账信息,格式间采用,分隔,利用-e, --helpformat可以查看可用的格式。各项格式中%NUMBER可以限定格式占用的字符数,比如format=name%30,显示name列最多30个字符,如数字前有-则该列左对齐(默认时右对齐)。

  • -r, --partition:显示特定队列的作业记账信息。

  • -R reason_list, --reason=reason_list:显示由于reason_list(以,分隔)原因没有被调度的作业记账信息。

  • -s state_list, --state=state_list:显示state_list(以,分隔)状态的作业记账信息。

  • -S, --starttime:显示特定时间之后开始运行的作业记账信息,有效时间格式参见前面-E参数。

  • 其它常用作业管理命令

    终止作业:scancel job_id

    如果想终止一个作业,可利用scancel job_id来取消,job_list可以为以,分隔的作业ID,如:

    hmli@login01:~$ scancel 7

    挂起排队中尚未运行的作业:scontrol hold job_list

    scontrol hold job_list(job_list可以为以,分隔的作业ID或jobname=作业名)命令可使得排队中尚未运行的作业(设置优先级为0)暂停被分配运行,被挂起的作业将不被执行,这样可以让其余作业优先得到资源运行。被挂起的作业在用squeue命令查询显示的时NODELIST(REASON)状态标志为JobHeldUser(被用户自己挂起)或JobHeldAdmin(被系统管理员挂起),利用scontrol release job_list可取消挂起。下面命令将挂起作业号为7的作业:

    hmli@login01:~/work$ scontrol hold 7

    继续排队被挂起的尚未运行作业:scontrol release job_list

    被挂起的作业可以利用scontrol release job_list来取消挂起,重新进入等待运行状态,job_list可以为以,分隔的作业ID或jobname=作业名。

    hmli@login01:~/work$ scontrol release 7

    重新运行作业:scontrol requeue job_list

    利用scontrol requeue job_list重新使得运行中的、挂起的或停止的作业重新进入排队等待运行,job_list可以为以,分隔的作业ID。 hmli@login01:~/work$ scontrol requeue 7

    重新挂起作业:scontrol requeuehold job_list

    利用scontrol requeuehold job_list重新使得运行中的、挂起的或停止的作业重新进入排队,并被挂起等待运行,job_list可以为以,分隔的作业ID。之后可利用scontrol release job_list使其运行。

    hmli@login01:~/work$ scontrol requeuehold 7

    最优先等待运行作业:scontrol top job_id

    利用scontrol top job_list可以使得尚未开始运行的job_list作业排到用户自己排队作业的最前面,最优先运行,job_list可以为以,分隔的作业ID。

    hmli@login01:~/work$ scontrol top 7

    等待某个作业运行完:scontrol wait_job job_id

    利用scontrol wait_job job_id可以等待某个job_id结束后开始运行,一般用于脚本中。

    hmli@login01:~/work$ scontrol wait_job 7

    更新作业信息:scontrol update SPECIFICATION

    利用scontrol update SPECIFICATION可以更新作业、作业步等信息,SPECIFICATION格式为scontaol show job显示出的,如下面命令将更新作业号为7的作业名为NewJobName:

    scontrol update JobId=7 JobName=NewJobName

  •