[THUDM/ChatGLM-6B][Help] 如何支持多显卡

2024-07-12 886 views
2

公司内部使用,装了2卡,发现默认配置只有1卡在跑,请问如何使用才可以使用多卡

Environment
OS: Ubuntu 20.04
Python: 3.8
Transformers: 4.26.1
PyTorch: 1.12
CUDA Support: True

回答

4

CUDA_VISIBLE_DEVICES=0,1

8

夹在web_demo.py么?

3

系统环境变量

7

设了CUDA_VISIBLE_DEVICES=0,1后,用nvidia-smi命令也只看到用了GPU 0呢?

1

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True) model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().quantize(8).cuda() model = model.eval()

MAX_TURNS = 20 MAX_BOXES = MAX_TURNS * 2 CUDA_VISIBLE_DEVICES = 0,1

6

因为网络层需要自己映射到其它显卡上,不然只会用gpu 0

0

model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True,device_map='auto').half()

2

添加了os.environ["CUDA_VISIBLE_DEVICES"] = "1,0" 和 device_map='auto',好像还不行,随着推理并发和交互的增多,一张卡的显存还是在飙升,另一张虽然有显存占用,但只有783M,而且一直不增加