方式一:指定使用所有GPU
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = CreateModel()
model= nn.DataParallel(model)
model.to(device)
方式二:结合系统环境变量使用特定的GPU
CUDA_VISIBLE_DEVICES=1,3
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = CreateModel()
model= nn.DataParallel(model)
model.to(device)
方式三:直接指定特定的GPU
device = torch.device("cuda:1,3" if torch.cuda.is_available() else "cpu") ## specify the GPU id's, GPU id's start from 0.
model = CreateModel()
model= nn.DataParallel(model,device_ids = [1, 3])
model.to(device)
以上所有情况中,后面使用的数据都要映射到对应的GPU设备。文章来源:https://www.toymoban.com/news/detail-651863.html
如果x,y是数据:文章来源地址https://www.toymoban.com/news/detail-651863.html
X.to(device)
y.to(device)
到了这里,关于pytorch指定使用多个GPU的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!