詳解pytorch的多GPU訓練的兩種方式
方法一:torch.nn.DataParallel
1. 原理
如下圖所示:小朋友一個人做4份作業(yè),假設(shè)1份需要60min,共需要240min。
這里的作業(yè)就是pytorch中要處理的data。
與此同時,他也可以先花3min把作業(yè)分配給3個同伙,大家一起60min做完。最后他再花3min把作業(yè)收起來,一共需要66min。
這個小朋友就是主GPU。他的過程是:分發(fā) ->并行運算->結(jié)果回收。
這就是pytorch要使用的第一種并行方法:torch.nn.DataParallel
這種方法也稱為單進程多GPU訓練模式:DP模式,這種并行模式下并行的多卡都是由一個進程進行控制。換句話說,在進行梯度的傳播時,是在主GPU上進行的。
采用torch.nn.DataParallel進行多GPU并行訓練時,與其搭配的數(shù)據(jù)讀取代碼是:torch.utils.data.DataLoader
2. 常用的配套代碼如下
train_datasets = customData(train_txt) #創(chuàng)建datasettrain_dataloaders = torch.utils.data.DataLoader(train_datasets,opt.batch_size,num_workers=train_num_workers,shuffle=True) #創(chuàng)建dataloadermodel = efficientnet_b0(num_classes = opt.num_class) #創(chuàng)建modeldevice_list = list(map(int,list(opt.device_id)))print("Using gpu"," ".join([str(v) for v in device_list]))device = device_list[0] #主GPU,也就是分發(fā)任務(wù)和結(jié)果回收的GPU,也是梯度傳播更新的GPUmodel = torch.nn.DataParallel(model,device_ids=device_list)model.to(device)for data in train_dataloaders: model.train(True) inputs, labels = data inputs = Variable(inputs.to(device)) #將數(shù)據(jù)放到主要GPU labels = Variable(labels.to(device))
3. 優(yōu)缺點
- 優(yōu)點:配置起來非常方便
- 缺點:GPU負載不均衡,主GPU的負載很大,而其他GPU的負載很少
方法二:torch.distributed
1. 代碼說明
這個方法本來是用于多機器多卡(多節(jié)點多卡)訓練的,但是也可以用于單機多卡(即將節(jié)點數(shù)設(shè)置為1)訓練。
初始化的代碼如下,這個一定要寫在最前面。
from torch.utils.data.distributed import DistributedSampler torch.distributed.init_process_group(backend="nccl")
這里給出一個簡單的demo.py作為說明:
import torch import torch.nn as nn from torch.autograd import Variable from torch.utils.data import Dataset, DataLoader import os from torch.utils.data.distributed import DistributedSampler # 1) 初始化 torch.distributed.init_process_group(backend="nccl") input_size = 5 output_size = 2 batch_size = 30 data_size = 90 # 2) 配置每個進程的gpu local_rank = torch.distributed.get_rank() print('local_rank',local_rank) torch.cuda.set_device(local_rank) device = torch.device("cuda", local_rank) class RandomDataset(Dataset): def __init__(self, size, length): self.len = length self.data = torch.randn(length, size).to('cuda') def __getitem__(self, index): return self.data[index] def __len__(self): return self.len dataset = RandomDataset(input_size, data_size) # 3)使用DistributedSampler rand_loader = DataLoader(dataset=dataset, batch_size=batch_size, sampler=DistributedSampler(dataset)) class Model(nn.Module): def __init__(self, input_size, output_size): super(Model, self).__init__() self.fc = nn.Linear(input_size, output_size) def forward(self, input): output = self.fc(input) print(" In Model: input size", input.size(), "output size", output.size()) return output model = Model(input_size, output_size) # 4) 封裝之前要把模型移到對應的gpu model.to(device) if torch.cuda.device_count() > 1: print("Let's use", torch.cuda.device_count(), "GPUs!") # 5) 封裝 model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[local_rank], output_device=local_rank) for data in rand_loader: if torch.cuda.is_available(): input_var = data else: input_var = data output = model(input_var) print("Outside: input size", input_var.size(), "output_size", output.size())
(1)啟動方式:在torch.distributed當中提供了一個用于啟動的程序torch.distributed.launch,此幫助程序可用于為每個節(jié)點啟動多個進程以進行分布式訓練,它在每個訓練節(jié)點上產(chǎn)生多個分布式訓練進程。
(2)啟動命令:
CUDA_VISIBLE_DEVICES=1,2,3,4 python -m torch.distributed.launch --nproc_per_node=2 torch_ddp.py
這里需要說明一下參數(shù):
- CUDA_VISIBLE_DEVICES:設(shè)置我們可用的GPU的id
- torch.distributed.launch:用于啟動多節(jié)點多GPU的訓練
- nproc_per_node:表示設(shè)置的進程數(shù)量,一般情況設(shè)置為可用的GPU數(shù)量,即有多少個可用的GPU就設(shè)置多少個進程。
- local rank:關(guān)于這個參數(shù)的意義,我們將在后面的情形中進行說明。
(3)一些情形的說明:
情形1:直接運行上述的命令
運行的結(jié)果如下:
local_rank 1
local_rank 0
Let's use 4 GPUs!
Let's use 4 GPUs!
In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([15, 5]) output_size torch.Size([15, 2])
In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([15, 5]) output_size torch.Size([15, 2])
可以看到local rank的輸出為0和1,其數(shù)量與我們設(shè)置的nproc_per_node是一樣的,與我們設(shè)置的可用GPU的數(shù)量是無關(guān)的。這里就要說明一下local rank的意義。
local rank:表示的是當前的進程在當前節(jié)點的編號,因為我們設(shè)置了2個進程,因此進程的編號就是0和1
在很多博客中都直接說明local_rank等于進程內(nèi)的GPU編號,這種說法實際上是不準確的。這個編號并不是GPU的編號?。?/p>
在使用啟動命令時,torch.distributed.launch工具會默認地根據(jù)nproc_per_node傳入local_rank參數(shù),之后再通過下面的代碼可以得到local_rank.
local_rank = torch.distributed.get_rank()
因為是默認傳入?yún)?shù)local_rank,所以還可以這么寫,其輸出與torch.distributed.get_rank()相同
import argparse parser = argparse.ArgumentParser() # 注意這個參數(shù),必須要以這種形式指定,即使代碼中不使用。因為 launch 工具默認傳遞該參數(shù) parser.add_argument("--local_rank", type=int) args = parser.parse_args() local_rank = args.local_rank print('local_rank',args.local_rank)
情形2:將nproc_per_node設(shè)置為4,即將進程數(shù)設(shè)置為可用的GPU數(shù)
運行結(jié)果如下:
local_rank 2
local_rank 3
local_rank 1
local_rank 0
Let's use 4 GPUs!
Let's use 4 GPUs!
Let's use 4 GPUs!
Let's use 4 GPUs!
In Model: input size torch.Size([23, 5]) output size torch.Size([23, 2])
Outside: input size torch.Size([23, 5]) output_size torch.Size([23, 2])
In Model: input size torch.Size([23, 5]) output size torch.Size([23, 2])
Outside: input size torch.Size([23, 5]) output_size torch.Size([23, 2])
In Model: input size torch.Size([23, 5]) output size torch.Size([23, 2])
Outside: input size torch.Size([23, 5]) output_size torch.Size([23, 2])
In Model: input size torch.Size([23, 5]) output size torch.Size([23, 2])
Outside: input size torch.Size([23, 5]) output_size torch.Size([23, 2])
可以看到,此時的local_rank共有4個,與進程數(shù)相同。并且我們設(shè)置的可用GPU的id是1,2,3,4,而local_rank的輸出為0,1,2,3,可見local_rank并不是GPU的編號。
雖然在代碼中模型并行的device_ids設(shè)置為local_rank,而local_rank為0,1,2,3,但是實際上還是采用可用的GPU:1,2,3,4??梢酝ㄟ^nvidia-smi來查看,PID為86478,86479,86480,864782。
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[local_rank], output_device=local_rank)
情形3:將nproc_per_node設(shè)置為4,但是不設(shè)置可用的GPU ID
python -m torch.distributed.launch --nproc_per_node=4 ddp.py
此時我們再使用nvidia-smi來查看GPU的使用情況,如下??梢钥吹酱藭r使用的GPU就是local rank的id。相比于情形2,我們可以總結(jié):
當沒有設(shè)置可用的GPU ID時,所采用的GPU id就等于local rank的id。本質(zhì)上是將進程的編號作為GPU編號使用,因此local_rank等于進程的編號這個定義是不變的。
當設(shè)置可用的GPU ID,所采用的GPU id就等于GPU id。
情形4:將nproc_per_node設(shè)置為5,即超出了可以用的GPU數(shù)
輸出結(jié)果如下,可以看到是報錯的,因為進程數(shù)超出了可以用的GPU數(shù)量
local_rank 3
local_rank 2
local_rank 4
local_rank 1
local_rank 0
THCudaCheck FAIL file=/pytorch/torch/csrc/cuda/Module.cpp line=59 error=101 : invalid device ordinal
Traceback (most recent call last):
File "ddp.py", line 18, in <module>
torch.cuda.set_device(local_rank)
File "/home/yckj3822/anaconda3/lib/python3.6/site-packages/torch/cuda/__init__.py", line 281, in set_device
torch._C._cuda_setDevice(device)
RuntimeError: cuda runtime error (101) : invalid device ordinal at /pytorch/torch/csrc/cuda/Module.cpp:59
到此這篇關(guān)于詳解pytorch的多GPU訓練的兩種方式的文章就介紹到這了,更多相關(guān)pytorch的多GPU訓練內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
零基礎(chǔ)寫python爬蟲之爬蟲框架Scrapy安裝配置
Scrapy是一個使用Python編寫的,輕量級的,簡單輕巧,并且使用起來非常的方便。使用Scrapy可以很方便的完成網(wǎng)上數(shù)據(jù)的采集工作,它為我們完成了大量的工作,而不需要自己費大力氣去開發(fā)。2014-11-11深入理解Python虛擬機中字節(jié)(bytes)的實現(xiàn)原理及源碼剖析
在本篇文章當中主要給大家介紹在?cpython?內(nèi)部,bytes?的實現(xiàn)原理、內(nèi)存布局以及與?bytes?相關(guān)的一個比較重要的優(yōu)化點——?bytes?的拼接,需要的可以參考一下2023-03-03