原文:pytorch多gpu并行训练 - 2019.12.19
作者:link-web
环境:Ubuntu14, 18LST 调试
解决了不少迷惑, 记录、学习备忘.
1. 单机多卡并行训练
1.1. torch.nn.DataParallel
作者一般在使用多GPU的时候, 会喜欢使用os.environ['CUDA_VISIBLE_DEVICES']
来限制使用的GPU个数, 例如我要使用第0和第3编号的GPU, 那么只需要在程序中设置:
os.environ['CUDA_VISIBLE_DEVICES'] = '0,3'
但是要注意的是,这个参数的设定要保证在模型加载到gpu上之前, 一般都是在程序开始的时候就设定好这个参数, 之后如何将模型加载到多GPU上面呢?
如果是模型, 那么需要执行下面的这几句代码:
model = nn.DataParallel(model)
model = model.cuda()
如果是数据, 那么直接执行下面这几句代码就可以了:
inputs = inputs.cuda()
labels = labels.cuda()
其实如果看pytorch 官网 给的示例代码,我们可以看到下面这样的代码
model = Model(input_size, output_size)
if torch.cuda.device_count() > 1:
print("Let's use", torch.cuda.device_count(), "GPUs!")
# dim = 0 [30, xxx] -> [10, ...], [10, ...], [10, ...] on 3 GPUs
model = nn.DataParallel(model)
model.to(device)
这个和上面写的好像有点不太一样, 但是如果看一下DataParallel
的内部代码, 就可以发现, 其实是一样的:
class DataParallel(Module):
def __init__(self, module, device_ids=None, output_device=None, dim=0):
super(DataParallel, self).__init__()
if not torch.cuda.is_available():
self.module = module
self.device_ids = []
return
if device_ids is None:
device_ids = list(range(torch.cuda.device_count()))
if output_device is None:
output_device = device_ids[0]
只截取了其中一部分代码, 可以看到如果不设定好要使用的device_ids的
话, 程序会自动找到这个机器上面可以用的所有的显卡, 然后用于训练. 但是因为前面使用os.environ['CUDA_VISIBLE_DEVICES']
限定了这个程序可以使用的显卡, 所以这个地方程序如果自己获取的话, 获取到的其实就是上面设定的那几个显卡.
作者没有进行深入得到考究, 但是感觉使用os.environ['CUDA_VISIBLE_DEVICES']
对可以使用的显卡进行限定之后, 显卡的实际编号和程序看到的编号应该是不一样的, 例如上面设定的是os.environ['CUDA_VISIBLE_DEVICES']="0,2"
, 但是程序看到的显卡编号应该被改成了'0,1'
, 也就是说程序所使用的显卡编号实际上是经过了一次映射之后才会映射到真正的显卡编号上面的, 例如这里的程序看到的1对应实际的2.
1.2. 如何平衡DataParallel带来的显存使用不平衡的问题
这个问题其实讨论的也比较多了, 官方给的解决方案就是使用 DistributedDataParallel
来代替 DataParallel
(实际上DistributedDataParallel
显存分配的也不是很平衡), 但是从某些角度来说, DataParallel
使用起来确实比较方便, 而且最近使用 DistributedDataParallel
遇到一些小问题. 所以这里提供一个解决显存使用不平衡问题的方案:
首先这次的解决方案来自transformer-XL的官方代码: https://github.com/kimiyoung/transformer-xl
然后作者将其中的平衡GPU显存的代码提取了出来放到了github上面:https://github.com/Link-Li/Balanced-DataParallel
这里的代码是原作者继承了 DataParallel
类之后进行了改写:
class BalancedDataParallel(DataParallel):
def __init__(self, gpu0_bsz, *args, **kwargs):
self.gpu0_bsz = gpu0_bsz
super().__init__(*args, **kwargs)
...
这个 BalancedDataParallel
类使用起来和 DataParallel
类似, 下面是一个示例代码:
my_net = MyNet()
my_net = BalancedDataParallel(gpu0_bsz // acc_grad, my_net, dim=0).cuda()
这里包含三个参数, 第一个参数是第一个GPU要分配多大的batch_size, 但是要注意, 如果使用了梯度累积, 那么这里传入的是每次进行运算的实际batch_size大小. 举个例子, 比如在3个GPU上面跑代码, 但是一个GPU最大只能跑3条数据, 但是因为0号GPU还要做一些数据的整合操作, 于是0号GPU只能跑2条数据, 这样一算, 可以跑的大小是2+3+3=8, 于是就可以设置下面的这样的参数:
batch_szie = 8
gpu0_bsz = 2
acc_grad = 1
my_net = MyNet()
my_net = BalancedDataParallel(gpu0_bsz // acc_grad, my_net, dim=0).cuda()
这个时候突然想跑个batch size是16的怎么办呢, 那就是4+6+6=16了, 这样设置累积梯度为2就行了:
batch_szie = 16
gpu0_bsz = 4
acc_grad = 2
my_net = MyNet()
my_net = BalancedDataParallel(gpu0_bsz // acc_grad, my_net, dim=0).cuda()
1.3. torch.nn.parallel.DistributedDataParallel
pytorch的官网建议使用DistributedDataParallel
来代替DataParallel
, 据说是因为DistributedDataParallel
比DataParallel
运行的更快, 然后显存分屏的更加均衡. 而且DistributedDataParallel
功能更加强悍, 例如分布式的模型(一个模型太大, 以至于无法放到一个GPU上运行, 需要分开到多个GPU上面执行). 只有DistributedDataParallel
支持分布式的模型像单机模型那样可以进行多机多卡的运算. 当然具体的怎么个情况, 建议看官方文档.
依旧是先设定好os.environ['CUDA_VISIBLE_DEVICES']
, 然后再进行下面的步骤.
因为DistributedDataParallel
是支持多机多卡的, 所以这个需要先初始化一下, 如下面的代码:
torch.distributed.init_process_group(
backend='nccl',
init_method='tcp://localhost:23456',
rank=0,
world_size=1)
第一个参数是pytorch支持的通讯后端, 后面会继续介绍, 但是这里单机多卡, 这个就是走走过场.
第二个参数是各个机器之间通讯的方式, 后面会介绍, 这里是单机多卡, 设置成localhost就行了, 后面的端口自己找一个空着没用的就行了.
rank是标识主机和从机的, 这里就一个主机, 设置成0就行了.
world_size是标识使用几个主机, 这里就一个主机, 设置成1就行了, 设置多了代码不允许.
其实如果是使用单机多卡的情况下, 根据pytorch的官方代码distributeddataparallel, 是直接可以使用下面的代码的:
torch.distributed.init_process_group(backend="nccl")
model = DistributedDataParallel(model) # device_ids will include all GPU devices by default
但是这里需要注意的是, 如果使用这句代码, 直接在pycharm或者别的编辑器中,是没法正常运行的, 因为这个需要在shell的命令行中运行, 如果想要正确执行这段代码, 假设这段代码的名字是main.py
, 可以使用如下的方法进行(参考1 参考2):
python -m torch.distributed.launch main.py
注: 这里如果使用了argparse, 一定要在参数里面加上--local_rank, 否则运行还是会出错的
之后就和使用DataParallel
很类似了.
model = model.cuda()
model = nn.parallel.DistributedDataParallel(model)
但是注意这里要先将model
加载到GPU, 然后才能使用DistributedDataParallel
进行分发, 之后的使用和DataParallel
就基本一样了.
2. 多机多gpu训练
在单机多gpu可以满足的情况下, 绝对不建议使用多机多gpu进行训练, 作者经过测试, 发现多台机器之间传输数据的时间非常慢, 主要是因为作者测试的机器可能只是千兆网卡, 再加上别的一些损耗, 网络的传输速度跟不上, 导致训练速度实际很慢. 作者看一个github上面的人说在单机8显卡可以满足的情况下, 最好不要进行多机多卡训练.
建议看这两份代码, 实际运行一下, 才会真的理解怎么使用
pytorch/examples/imagenet/main.py
2.1. 初始化
初始化操作一般在程序刚开始的时候进行
在进行多机多gpu进行训练的时候, 需要先使用torch.distributed.init_process_group()
进行初始化.
torch.distributed.init_process_group()
包含四个常用的参数:
[1] - backend: 后端, 实际上是多个机器之间交换数据的协议.
[2] - init_method: 机器之间交换数据, 需要指定一个主节点, 而这个参数就是指定主节点的.
[3] - world_size: 介绍都是说是进程, 实际就是机器的个数, 例如两台机器一起训练的话, world_size就设置为 2.
[4] - rank: 区分主节点和从节点的, 主节点为0, 剩余的为了1-(N-1), N为要使用的机器的数量, 也就是world_size.
2.1.1. 初始化backend
首先要初始化的是backend
, 也就是俗称的后端, 在 pytorch 的官方教程中提供了以下这些后端:
根据官网的介绍, 如果是使用cpu的分布式计算, 建议使用gloo
, 因为表中可以看到 gloo
对cpu的支持是最好的, 然后如果使用gpu进行分布式计算, 建议使用nccl
, 实际测试中作者也感觉到, 当使用gpu的时候, nccl
的效率是高于gloo
的. 根据博客和官网的态度, 好像都不怎么推荐在多gpu的时候使用mpi
对于后端选择好了之后, 需要设置一下网络接口, 因为多个主机之间肯定是使用网络进行交换, 那肯定就涉及到ip之类的, 对于nccl
和gloo
一般会自己寻找网络接口, 但是某些时候, 比如作者所测试用的服务器, 不知道是系统有点古老, 还是网卡比较多, 需要自己手动设置. 设置的方法也比较简单, 在Python的代码中, 使用下面的代码进行设置就行:
import os
# 以下二选一, 第一个是使用gloo后端需要设置的, 第二个是使用nccl需要设置的
os.environ['GLOO_SOCKET_IFNAME'] = 'eth0'
os.environ['NCCL_SOCKET_IFNAME'] = 'eth0'
怎么知道自己的网络接口呢, 打开命令行, 然后输入ifconfig
, 然后找到那个带自己ip地址的就是了, 一般就是em0
, eth0
, esp2s0
之类的, 当然具体的根据自己的填写. 如果没装ifconfig
, 输入命令会报错, 但是根据报错提示安装一个就行了.
2.1.2. 初始化init_method
初始化init_method
的方法有两种, 一种是使用TCP进行初始化, 另外一种是使用共享文件系统进行初始化
[1] - 使用TCP初始化
看代码:
import torch.distributed as dist
dist.init_process_group(backend,
init_method='tcp://10.1.1.20:23456',
rank=rank,
world_size=world_size)
注意这里使用格式为tcp://ip:端口号
, 首先ip
地址是主节点的ip地址, 也就是rank
参数为0的那个主机的ip地址, 然后再选择一个空闲的端口号, 这样就可以初始化init_method
了.
[2] - 使用共享文件系统初始化
好像看到有些人并不推荐这种方法, 因为这个方法好像比TCP初始化要没法, 搞不好和硬盘的格式还有关系, 特别是window的硬盘格式和Ubuntu的还不一样, 作者没有测试这个方法, 看代码:
import torch.distributed as dist
dist.init_process_group(backend,
init_method='file:///mnt/nfs/sharedfile',
rank=rank,
world_size=world_size)
根据官网介绍, 要注意提供的共享文件一开始应该是不存在的, 但是这个方法又不会在自己执行结束删除文件, 所以下次再进行初始化的时候, 需要手动删除上次的文件, 所以比较麻烦, 而且官网给了一堆警告, 再次说明了这个方法不如TCP初始化的简单.
2.1.3. 初始化rank和world_size
这里其实没有多难, 需要确保, 不同机器的rank
值不同, 但是主机的rank
必须为0, 而且使用init_method
的ip一定是rank
为0的主机, 其次world_size
是主机数量, 不能随便设置这个数值, 参与训练的主机数量达不到world_size
的设置值时, 代码是不会执行的.
2.1.4. 初始化中一些需要注意的地方
首先是代码的统一性, 所有的节点上面的代码, 建议完全一样, 不然有可能会出现一些问题, 其次, 这些初始化的参数强烈建议通过argparse
模块(命令行参数的形式)输入, 不建议写死在代码中, 也不建议使用pycharm之类的IDE进行代码的运行, 强烈建议使用命令行直接运行.
其次是运行代码的命令方面的问题, 例如使用下面的命令运行代码distributed.py
:
python distributed.py -bk nccl -im tcp://10.10.10.1:12345 -rn 0 -ws 2
上面的代码是在主节点上运行, 所以设置rank为0, 同时设置了使用两个主机, 在从节点运行的时候, 输入的代码是下面这样:
python distributed.py -bk nccl -im tcp://10.10.10.1:12345 -rn 1 -ws 2
一定要注意的是, 只能修改rank
的值, 其他的值一律不得修改, 否则程序就卡死了初始化到这里也就结束了.
2.2. 数据的处理-DataLoader
其实数据的处理和正常的代码的数据处理非常类似, 但是因为多机多卡涉及到了效率问题, 所以这里才会使用torch.utils.data.distributed.DistributedSampler
来规避数据传输的问题. 首先看下面的代码:
print("Initialize Dataloaders...")
# Define the transform for the data. Notice, we must resize to 224x224 with this dataset and model.
transform = transforms.Compose(
[transforms.Resize(224),
transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5),
(0.5, 0.5, 0.5))
])
# Initialize Datasets. STL10 will automatically download if not present
trainset = datasets.STL10(root='./data',
split='train',
download=True,
transform=transform)
valset = datasets.STL10(root='./data',
split='test',
download=True,
transform=transform)
# Create DistributedSampler to handle distributing the dataset across nodes when training
# This can only be called after torch.distributed.init_process_group is called
# 这一句就是和平时使用有点不一样的地方
train_sampler = torch.utils.data.distributed.DistributedSampler(trainset)
# Create the Dataloaders to feed data to the training and validation steps
train_loader = torch.utils.data.DataLoader(
trainset,
batch_size=batch_size,
shuffle=(train_sampler is None),
num_workers=workers,
pin_memory=False,
sampler=train_sampler)
val_loader = torch.utils.data.DataLoader(
valset,
batch_size=batch_size,
shuffle=False,
num_workers=workers,
pin_memory=False)
其实单独看这段代码, 和平时写的很类似, 唯一不一样的其实就是这里先将trainset
送到了DistributedSampler
中创造了一个train_sampler
, 然后在构造train_loader
的时候, 参数中传入了一个sampler=train_sampler
. 使用这些的意图是, 让不同节点的机器加载自己本地的数据进行训练, 也就是说进行多机多卡训练的时候, 不再是从主节点分发数据到各个从节点, 而是各个从节点自己从自己的硬盘上读取数据.
当然了, 如果直接让各个节点自己读取自己的数据, 特别是在训练的时候经常是要打乱数据集进行训练的, 这样就会导致不同的节点加载的数据混乱, 所以这个时候使用DistributedSampler
来创造一个sampler
提供给DataLoader
, sampler
的作用自定义一个数据的编号, 然后让DataLoader
按照这个编号来提取数据放入到模型中训练, 其中sampler
参数和shuffle
参数不能同时指定, 如果这个时候还想要可以随机的输入数据, 我们可以在DistributedSampler
中指定shuffle
参数, 具体的可以参考官网的 API, 拉到最后就是DistributedSampler
.
2.3. 模型的处理
模型的处理其实和上面的单机多卡没有多大区别, 还是下面的代码, 但是注意要提前想把模型加载到gpu, 然后才可以加载到DistributedDataParallel
model = model.cuda()
model = nn.parallel.DistributedDataParallel(model)
2.4. 模型的保存与加载
pytorch官方教程的一段代码:
def demo_checkpoint(rank, world_size):
setup(rank, world_size)
# setup devices for this process, rank 1 uses GPUs [0, 1, 2, 3] and
# rank 2 uses GPUs [4, 5, 6, 7].
n = torch.cuda.device_count() // world_size
device_ids = list(range(rank * n, (rank + 1) * n))
model = ToyModel().to(device_ids[0])
# output_device defaults to device_ids[0]
ddp_model = DDP(model, device_ids=device_ids)
loss_fn = nn.MSELoss()
optimizer = optim.SGD(ddp_model.parameters(), lr=0.001)
CHECKPOINT_PATH = tempfile.gettempdir() + "/model.checkpoint"
if rank == 0:
# All processes should see same parameters as they all start from same
# random parameters and gradients are synchronized in backward passes.
# Therefore, saving it in one process is sufficient.
torch.save(ddp_model.state_dict(), CHECKPOINT_PATH)
# Use a barrier() to make sure that process 1 loads the model after process
# 0 saves it.
dist.barrier()
# configure map_location properly
rank0_devices = [x - rank * len(device_ids) for x in device_ids]
device_pairs = zip(rank0_devices, device_ids)
map_location = {'cuda:%d' % x: 'cuda:%d' % y for x, y in device_pairs}
ddp_model.load_state_dict(
torch.load(CHECKPOINT_PATH, map_location=map_location))
optimizer.zero_grad()
outputs = ddp_model(torch.randn(20, 10))
labels = torch.randn(20, 5).to(device_ids[0])
loss_fn = nn.MSELoss()
loss_fn(outputs, labels).backward()
optimizer.step()
# Use a barrier() to make sure that all processes have finished reading the
# checkpoint
dist.barrier()
if rank == 0:
os.remove(CHECKPOINT_PATH)
cleanup()
作者并没有实际操作, 因为多卡多GPU代码运行起来实在是难受, 一次实验可能就得好几分钟, 要是搞错一点可能就得好几十分钟都跑不起来, 最主要的是还要等能用的GPU. 不过看上面的代码, 最重要的实际是这句 dist.barrier()
, 这个是来自torch.distributed.barrier()
, 根据pytorch的官网的介绍, 这个函数的功能是同步所有的进程, 直到整组(也就是所有节点的所有GPU)到达这个函数的时候, 才会执行后面的代码, 看上面的代码, 可以看到, 在保存模型的时候, 是只找rank
为0的点保存模型, 然后在加载模型的时候, 首先得让所有的节点同步一下, 然后给所有的节点加载上模型, 然后在进行下一步的时候, 还要同步一下, 保证所有的节点都读完了模型. 虽然作者不清楚这样做的意义是什么, 但是官网说不这样做会导致一些问题, 作者并没有实际操作, 不发表意见.
至于保存模型的时候, 是保存哪些节点上面的模型, pytorch推荐的是rank=0
的节点, 然后作者看在论坛上, 有人也会保存所有节点的模型, 然后进行计算, 至于保存哪些, 作者并没有做实验, 所以并不清楚到底哪种最好.
3. 参考文档
[1] - data_parallel_tutorial
[2] - distributeddataparallel
[3] - environment-variable-initialization
[4] - PYTORCH 1.0 DISTRIBUTED TRAINER WITH AMAZON AWS
[5] - pytorch/examples/imagenet/main.py
[6] - Distributed-VGG-F