一. 读卡规则
当服务器有多个GPU时,设置CUDA_VISIBLE_DEVICES 环境变量可以改变CUDA程序所能使用的GPU设备。在默认情况下,标号为0的显卡为主卡,如主机中有4块显卡,那么每张显卡的默认标号为[0,1,2,3]。多卡设置规则如下:
Environment Variable Syntax | Results |
CUDA_VISIBLE_DEVICES=1 | Only device 1 will be seen |
CUDA_VISIBLE_DEVICES=0,1 | Devices 0 and 1 will be visible |
CUDA_VISIBLE_DEVICES="0,1" | Same as above, quotation marks are optiona |
CUDA_VISIBLE_DEVICES=0,2,3 | lDevices 0, 2, 3 will be visible;device 1 is masked |
CUDA应用运行时,CUDA将遍历当前可见的设备,并从零开始为可见设备编号。第一种情况,卡1设置为主卡,但CUDA遍历时会设置为可见编号0。最后一种情况,设备0,2,3将显示为设备0,1,2。如果将字符串的顺序更改为“2,3,0”,则设备2,3,0将分别被设置为0,1,2。如果为CUDA_VISIBLE_DEVICES 设置了不存在的设备,所有实际设备将被隐藏,CUDA 应用将无法使用GPU设备;如果设备序列是存在和不存在设备的混合,那么不存在设备前的所有存在设备将被重新编号,不存在设备之后的所有设备将被屏蔽。当前可见的(重新编号后的)设备可使用CUDA 程序来查看。
举例:
import torch
print(torch.cuda.current_device())
运行:
结果:
虽然指定使用设备为卡1,但CUDA会编号为0,因此显示的编号还是0
二. 设置GPU
1. 临时设置
1.1. 直接设置
export CUDA_VISIBLE_DEVICES=1
1.2. 运行bash脚本时指定GPU
CUDA_VISIBLE_DEVICES=gpu_ids sh test.sh
1.3. 在代码中指定GPU
import os
os.environ['CUDA_VISIBLE_DEVICES'] = gpu_ids
1.4. 运行程序时指定GPU
CUDA_VISIBLE_DEVICES=gpu_ids python test.py
注意:这种设置方法一定要在第一次使用 cuda 之前进行设置
2. 永久设置
管理员身份运行
~/.bashrc
在最后加上文章来源:https://www.toymoban.com/news/detail-806996.html
export CUDA_VISIBLE_DEVICES=gpu_ids
然后文章来源地址https://www.toymoban.com/news/detail-806996.html
source ~/.bashrc
到了这里,关于使用CUDA_VISIBLE_DEVICES设置显卡的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!