4热度
7回答
3热度
9回答
[THUDM/ChatGLM-6B]关于基于 ChatGLM-6B做增量预训练
6热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 随着对话轮数增加,有什么方法可以防止/减少ChatGLM的显存增加吗?
3热度
5回答
[THUDM/ChatGLM-6B]五万训练数据,lora微调 batchsize为2 目前跑了一个epoch,loss还是停留在2.0附近,没有下降正常吗
2热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <请问大神们 训练问答对形式,训练集以外的问题如何不回答呢?>
8热度
5回答
[THUDM/ChatGLM-6B]求大佬解决,我curl请求出现Internal Server Error
7热度
6回答
6热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning/train.sh 多卡微调就OOM,但是单卡能跑
10热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] 请问AdvertiseGen目录下的dev.json和train.json有什么区别,训练自己的问题库时,这两个json如何写
0热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 如何执行api,py时,让它的workers数量大于1
4热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <请教下提供的量化脚本和hf的load_in_8bit有什么区别>
10热度
9回答
[THUDM/ChatGLM-6B]从本地导入chatglm-6b-int4预训练时,却从缓存导入
1热度
17回答
[THUDM/ChatGLM-6B]批量推理api,支持高并发
7热度
7回答
[THUDM/ChatGLM-6B]ptuning-v2单卡转多卡训练bug [BUG/Help]
5热度
16回答
[THUDM/ChatGLM-6B]logits_prob 输出
6热度
6回答
[THUDM/ChatGLM-6B]使用huggingface + cahtglm6b单机多卡推理加速有更好的办法吗?
5热度
30回答
6热度
36回答
[pytorch]PyTorch什么时候可以支持RTX系列GPU?
8热度
29回答
[pytorch]从 torch.* 函数返回命名元组,并为 C++ 运算符提供多个返回参数
6热度
30回答
[pytorch]使用 CUDA 10 Graphs API 的静态图