
本文旨在指导用户如何使用 SLURM(Simple Linux Utility for Resource Management)在多个输入文件上并行运行同一个 Python 脚本。文章详细解释了 SLURM 脚本的编写,包括资源申请、任务分配以及如何利用 srun 命令实现并行处理。同时,还介绍了 SLURM 任务数组的概念,并提供代码示例,帮助读者高效地利用集群资源完成任务。
利用 SLURM 并行处理多个文件在科学研究和数据处理中,经常需要对大量文件执行相同的操作。如果每个文件处理时间较长,串行执行效率低下。SLURM 提供了强大的并行计算能力,可以有效地解决这个问题。本文将介绍如何使用 SLURM 在多个文件上并行运行同一个 Python 脚本。
理解 SLURM 资源分配在使用 SLURM 之前,需要理解其资源分配机制。以下是一些关键参数:
- --nodes: 请求的节点数量。集群中每个节点的 CPU 数量取决于具体的硬件配置。
- --ntasks: 请求的总任务数量。
- --ntasks-per-node: 每个节点上运行的最大任务数量。如果指定了 --ntasks,则此参数表示每个节点上运行的最大任务数量;否则,表示每个节点上运行的任务数量。
- --cpus-per-task: 每个任务分配的 CPU 核心数。
为了避免节点资源超额分配,建议使用 --ntasks 和 --cpus-per-task 参数,根据实际情况合理分配资源。
使用 srun 命令并行执行任务srun 命令用于在 SLURM 集群上启动并行任务。与 sbatch 不同,srun 会立即执行任务,而 sbatch 只是提交任务到队列。
以下是一个示例 SLURM 脚本,演示如何使用 srun 在多个文件上并行运行 Python 脚本:
#!/bin/bash
#SBATCH --nodes=8
#SBATCH --ntasks-per-node=128
INPUT_DIR='path/to/input/dir'
OUTPUT_DIR='/path/to/output/dir'
# 读取文件名到数组
INPUT_STEMS_FILE='/some/path/to/list/of/inputs.txt'
INPUT_STEMS=()
while IFS= read -r line; do
INPUT_STEMS+=("$line")
done < <(tr -d '\r' < INPUT_STEMS_FILE)
for j in $(seq 0 $((${#INPUT_STEMS[@]} - 1))); do
# 循环处理每个文件
# 轮询分配到节点 (0, 1, ..., 8, 0, 1, ...)
NODE_NUMBER=$((j % SLURM_NNODES))
# 动态生成文件名
INPUT_FILE_NAME="$INPUT_DIR/${INPUT_STEMS[$j]}.txt"
OUTPUT_FILE_NAME="$OUTPUT_DIR/$j.txt"
# 在一个节点上运行一个任务,使用轮询分配
srun -N1 -n1 -w ${SLURM_NODELIST: $NODE_NUMBER:1} python_script.py --input "$INPUT_FILE_NAME" > "$OUTPUT_FILE_NAME" &
done
wait 代码解释:
Teleporthq
一体化AI网站生成器,能够快速设计和部署静态网站
182
查看详情
- #SBATCH 开头的行是 SLURM 的指令,用于指定资源需求。
- INPUT_DIR 和 OUTPUT_DIR 分别是输入和输出文件的路径。
- 脚本首先读取包含输入文件名的列表文件,并将文件名存储到 INPUT_STEMS 数组中。
- for 循环遍历 INPUT_STEMS 数组,对每个文件执行以下操作:
- 计算节点编号 NODE_NUMBER,使用模运算实现轮询分配。
- 动态生成输入和输出文件名。
- 使用 srun -N1 -n1 -w ${SLURM_NODELIST: $NODE_NUMBER:1} 命令在一个节点上运行 Python 脚本。-N1 表示使用一个节点,-n1 表示运行一个任务,-w ${SLURM_NODELIST: $NODE_NUMBER:1}指定节点名称。${SLURM_NODELIST: $NODE_NUMBER:1}使用字符串截取,从SLURM分配的节点列表中提取指定节点。
- & 符号表示将任务放到后台运行。
- wait 命令等待所有后台任务完成。
注意事项:
- 确保 python_script.py 脚本能够正确处理单个输入文件,并生成相应的输出文件。
- 根据实际情况调整 --nodes 和 --ntasks-per-node 参数,以充分利用集群资源。
- 检查 $INPUT_DIR 和 $OUTPUT_DIR 变量是否设置正确。
- 如果 Python 脚本需要额外的依赖库,需要在 SLURM 脚本中加载相应的模块。
SLURM 任务数组是另一种并行处理多个文件的有效方法。任务数组允许你创建一组相关的任务,每个任务处理不同的输入文件。
以下是一个使用任务数组的示例 SLURM 脚本:
#!/bin/bash
#SBATCH --array=0-99
INPUT_DIR='path/to/input/dir'
OUTPUT_DIR='/path/to/output/dir'
# Read the file names into an array
INPUT_STEMS_FILE='/some/path/to/list/of/inputs.txt'
INPUT_STEMS=()
while IFS= read -r line; do
INPUT_STEMS+=("$line")
done < <(tr -d '\r' < INPUT_STEMS_FILE)
# Get the task ID from the SLURM_ARRAY_TASK_ID environment variable
TASK_ID=$SLURM_ARRAY_TASK_ID
# Dynamically generate filename
INPUT_FILE_NAME="$INPUT_DIR/${INPUT_STEMS[$TASK_ID]}.txt"
OUTPUT_FILE_NAME="$OUTPUT_DIR/$TASK_ID.txt"
# Run the python script
python_script.py --input "$INPUT_FILE_NAME" > "$OUTPUT_FILE_NAME" 代码解释:
Teleporthq
一体化AI网站生成器,能够快速设计和部署静态网站
182
查看详情
- #SBATCH --array=0-99 指令创建了一个包含 100 个任务的任务数组,任务 ID 从 0 到 99。
- $SLURM_ARRAY_TASK_ID 环境变量包含了当前任务的任务 ID。
- 脚本使用任务 ID 动态生成输入和输出文件名。
- 每个任务独立运行 python_script.py 脚本,处理对应的输入文件。
注意事项:
- 任务数组会创建多个独立的 SLURM 任务,每个任务都有自己的资源分配。
- 任务数组适用于处理大量独立的文件,每个文件处理时间较短的情况。
- 需要根据实际情况调整 --array 参数,以匹配输入文件的数量。
本文介绍了两种使用 SLURM 并行处理多个文件的方法:使用 srun 命令和使用 SLURM 任务数组。选择哪种方法取决于具体的应用场景和资源需求。通过合理配置 SLURM 脚本,可以充分利用集群资源,高效地完成并行计算任务。
以上就是SLURM 并行处理:在多个文件上运行相同的脚本的详细内容,更多请关注知识资源分享宝库其它相关文章!
相关标签: linux python node ai 环境变量 Python Array Resource for 字符串 循环 linux 大家都在看: 查看Python版本如何在Linux源码安装中查看 查看Python版本的源码安装查询教程 查看Python版本怎样在Linux终端用完整命令查询 查看Python版本的完整命令使用技巧 查看Python版本怎样在Linux软件包中查看 查看Python版本的包管理查询方法 解决Linux系统下用户安装程序(如Pipenv)不在PATH环境变量的问题 在 Linux 系统中如何解决 DataCap 验证码无法显示的问题?






发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。