2热度
7回答
0热度
9回答
[THUDM/ChatGLM-6B]关于基于 ChatGLM-6B做增量预训练
6热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 随着对话轮数增加,有什么方法可以防止/减少ChatGLM的显存增加吗?
9热度
5回答
[THUDM/ChatGLM-6B]五万训练数据,lora微调 batchsize为2 目前跑了一个epoch,loss还是停留在2.0附近,没有下降正常吗
2热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <请问大神们 训练问答对形式,训练集以外的问题如何不回答呢?>
6热度
5回答
[THUDM/ChatGLM-6B]求大佬解决,我curl请求出现Internal Server Error
4热度
6回答
8热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning/train.sh 多卡微调就OOM,但是单卡能跑
9热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] 请问AdvertiseGen目录下的dev.json和train.json有什么区别,训练自己的问题库时,这两个json如何写
6热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 如何执行api,py时,让它的workers数量大于1
0热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <请教下提供的量化脚本和hf的load_in_8bit有什么区别>
6热度
9回答
[THUDM/ChatGLM-6B]从本地导入chatglm-6b-int4预训练时,却从缓存导入
1热度
17回答
[THUDM/ChatGLM-6B]批量推理api,支持高并发
0热度
7回答
[THUDM/ChatGLM-6B]ptuning-v2单卡转多卡训练bug [BUG/Help]
4热度
16回答
[THUDM/ChatGLM-6B]logits_prob 输出
8热度
6回答
[THUDM/ChatGLM-6B]使用huggingface + cahtglm6b单机多卡推理加速有更好的办法吗?
10热度
6回答
[binary-husky/gpt_academic]【chatglm 说】: [Local Message] Call ChatGLM fail 不能正常加载ChatGLM的参数。