分布式训练training-operator和pytorch-distributed RANK变量不统一解决

 更新时间:2023年04月13日 15:03:52   作者:烂笔头  
这篇文章主要介绍了分布式训练training-operator和pytorch-distributed RANK变量不统一问题的解决方案详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪

正文

我们在使用 training-operator 框架来实现 pytorch 分布式任务时,发现一个变量不统一的问题:在使用 pytorch 的分布式 launch 时,需要指定一个变量是 node_rank 。同时,在 OpenMMLab 框架的 dist_train.sh 里,读取的系统环境变量是 NODE_RANK(如果系统里 NODE_RANK 没有被指定,则用默认值0)。

dist_train.sh

#!/usr/bin/env bash 
CONFIG=$1 
GPUS=$2 
NNODES=${NNODES:-1} 
NODE_RANK=${NODE_RANK:-0} # 如果NODE_RANK没有被设置为系统变量,则使用默认值0 
PORT=${PORT:-29500} 
MASTER_ADDR=${MASTER_ADDR:-"127.0.0.1"} 
PYTHONPATH="$(dirname $0)/..":$PYTHONPATH \ 
python -m torch.distributed.launch \ 
    --nnodes=$NNODES \ 
    --node_rank=$NODE_RANK \ # 作为torch.distributed.launch参数的一部分 
    --master_addr=$MASTER_ADDR \ 
    --nproc_per_node=$GPUS \ 
    --master_port=$PORT \ 
    $(dirname "$0")/train.py \ 
    $CONFIG \ 
    --seed 0 \ 
    --launcher pytorch ${@:3}

而在 training-operator 里,NODE_RANK 这个环境变量是以 RANK 的形式出现的。

这就会导致:通过 training-operator 启动的训练 pod 里只有 RANK 变量,没有 NODE_RANK 变量,那么, dist_train.sh 里的 $NODE_RANK 变量是一个默认值 0,每一个被启动的训练 pod 里的 NODE_RANK 也是 0。这会让每个pod都认为自己是第 0 个,每个 pod 都无法感知到别的 pod 的存在,那就会各自为政,在自己的 NODE 节点上重复性的做单机多卡的分布式训练。

那么,为了实现多机多卡的训练,就势必需要解决 training-operator 提供的环境变量 RANK 与 torch.distributed.launch 需要的环境变量 NODE_RANK 的不统一的问题。

解决的思路有两个方向

  • 保持 training-operator 的 RANK 变量不变,在训练的 pod 容器里,将 RANK 变量赋值给 NODE_RANK
  • 修改 training-operator,添加 NODE_RANK 变量,并将 NODE_RANK 变量的值设为 RANK 的值

这里选第二个,因为第一个方案没走通。。。

  • 然后,添加一个 name=NODE_RANKvalue= strconv.Itoa(rank) 的环境变量
func setPodEnv(obj interface{}, podTemplateSpec *corev1.PodTemplateSpec, rtype, index string) error {
   pytorchjob, ok := obj.(*kubeflowv1.PyTorchJob)
   if !ok {
      return fmt.Errorf("%+v is not a type of PyTorchJob", obj)
   }
   for i := range podTemplateSpec.Spec.Containers {
      // Initialize the environment variables.
      if len(podTemplateSpec.Spec.Containers[i].Env) == 0 {
         podTemplateSpec.Spec.Containers[i].Env = make([]corev1.EnvVar, 0)
      }
      // Set PYTHONUNBUFFERED to true, to disable output buffering.
      // Ref https://stackoverflow.com/questions/59812009/what-is-the-use-of-pythonunbuffered-in-docker-file.
      podTemplateSpec.Spec.Containers[i].Env = append(
         podTemplateSpec.Spec.Containers[i].Env, corev1.EnvVar{
            Name:  "PYTHONUNBUFFERED",
            Value: "0",
         })
      // If the master is not null, then we need to set the MASTER_ADDR and RANK.
      if pytorchjob.Spec.PyTorchReplicaSpecs[kubeflowv1.PyTorchJobReplicaTypeMaster] != nil {
         envVars, err := GetMasterEnvVarGenerator().Generate(pytorchjob)
         if err != nil {
            return err
         }
         // Set master related environment variables.
         podTemplateSpec.Spec.Containers[i].Env = append(
            podTemplateSpec.Spec.Containers[i].Env, envVars...)
         // Set world size and rank.
         rank, err := strconv.Atoi(index)
         if err != nil {
            return err
         }
         if rtype == strings.ToLower(string(kubeflowv1.PyTorchJobReplicaTypeWorker)) {
            rank = rank + 1
         }
         totalReplicas := getTotalReplicas(pytorchjob)
         podTemplateSpec.Spec.Containers[i].Env = append(podTemplateSpec.Spec.Containers[i].Env, corev1.EnvVar{
            Name:  "WORLD_SIZE",
            Value: strconv.Itoa(int(totalReplicas)),
         })
         podTemplateSpec.Spec.Containers[i].Env = append(podTemplateSpec.Spec.Containers[i].Env, corev1.EnvVar{
            Name:  "RANK",
            Value: strconv.Itoa(rank),
         })
         // 新增一个名为NODE_RANK的环境变量
         podTemplateSpec.Spec.Containers[i].Env = append(podTemplateSpec.Spec.Containers[i].Env, corev1.EnvVar{
            Name:  "NODE_RANK",
            Value: strconv.Itoa(rank),
         })
      }
      // Set the elastic environment variables if the elasticPolicy is not null.
      if pytorchjob.Spec.ElasticPolicy != nil {
         envVars, err := GetElasticEnvVarGenerator().Generate(pytorchjob)
         if err != nil {
            return err
         }
         // Set elastic related environment variables.
         podTemplateSpec.Spec.Containers[i].Env = append(
            podTemplateSpec.Spec.Containers[i].Env, envVars...)
      }
   }
   return nil
}
  • 重新编译:go build & docker build
 # Build manager binary.
go build -o bin/manager cmd/training-operator.v1/main.go
 # Build docker image with the manager.
docker build -t ${IMG} -f build/images/training-operator/Dockerfile .
 # Push docker image with the manager.
docker push ${IMG}
  • 替换掉默认的镜像,在./manifests/base/deployment.yaml里修改镜像地址为上一步骤docker push的地址

  • 重新部署, 在./manifests/overlays/standalone目录下
kubectl apply -k .

获得 NODE_RANK变量

如下:

以上就是分布式训练training-operator和pytorch-distributed RANK变量不统一解决的详细内容,更多关于pytorch RANK变量不统一的资料请关注脚本之家其它相关文章!

相关文章

  • 在Python3中初学者应会的一些基本的提升效率的小技巧

    在Python3中初学者应会的一些基本的提升效率的小技巧

    这篇文章主要介绍了在Python3中的一些基本的小技巧,有利于刚刚上手Python的初学者提升开发效率,需要的朋友可以参考下
    2015-03-03
  • python操作mysql代码总结

    python操作mysql代码总结

    本篇文章给大家分享了python操作mysql的步骤以及相关实例代码,对此有需要的朋友可以参考学习下。
    2018-06-06
  • PyTorch中反卷积的用法详解

    PyTorch中反卷积的用法详解

    今天小编就为大家分享一篇PyTorch中反卷积的用法详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-12-12
  • python创建列表并给列表赋初始值的方法

    python创建列表并给列表赋初始值的方法

    这篇文章主要介绍了python创建列表并给列表赋初始值的方法,涉及Python列表的定义与赋值技巧,需要的朋友可以参考下
    2015-07-07
  • 关于python time库整理汇总

    关于python time库整理汇总

    这篇文章主要给大家分享的是关于python time库的整理,下面文章会介Time库的作用,Time库的使用及案列介绍,感兴趣的小伙伴请和小拜年一起来阅读下文吧
    2021-09-09
  • 5个很好的Python面试题问题答案及分析

    5个很好的Python面试题问题答案及分析

    这篇文章主要介绍了5个很好的Python面试题问题答案及分析,具有一定借鉴价值,需要的朋友可以参考下
    2018-01-01
  • 解决uWSGI的编码问题详解

    解决uWSGI的编码问题详解

    最近在用Flask 写的应用通过 Supervisor+uWSGI 部署到正式服务器上时出现了错误,通过查找相关的资料终于解决了,所以想着分享出来给大家,下面这篇文章主要介绍了解决uWSGI的编码问题的相关资料,需要的朋友可以参考下。
    2017-03-03
  • Python 如何解决稀疏矩阵运算

    Python 如何解决稀疏矩阵运算

    这篇文章主要介绍了Python 解决稀疏矩阵运算的操作,具有很好的参考价值,希望对大家有所帮助。
    2021-05-05
  • Python 实现简单智能聊天机器人

    Python 实现简单智能聊天机器人

    这篇文章主要介绍了Python 实现简单智能聊天机器人,首先通过计算机接收用户的语音输入再将用户输入的语音输入转化为文本信息展开实现过程,需要的小伙伴可以参考一下
    2022-05-05
  • Python叠加两幅栅格图像的实现方法

    Python叠加两幅栅格图像的实现方法

    今天小编就为大家分享一篇Python叠加两幅栅格图像的实现方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
    2019-07-07

最新评论