4热度
6回答
[THUDM/ChatGLM-6B]ChatGLM-6B如何实现上下午关联?
3热度
5回答
0热度
9回答
[THUDM/ChatGLM-6B]开始训练了,这个是正常的吗?
0热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] OVERFLOW导致loss异常
4热度
10回答
[THUDM/ChatGLM-6B]训练上7百万数据loss没有下降一走在3.x徘徊震荡怎么回事?还有训练完后并没有使用我的数据来回答,不知怎么回事?
0热度
11回答
[THUDM/ChatGLM-6B]API server支持更好的并发
4热度
6回答
[THUDM/ChatGLM-6B]为什么模型精度降低,推理耗时反而增大了?
9热度
18回答
[THUDM/ChatGLM-6B][BUG/Help] 有没有比较好的方式提升qps
0热度
12回答
[THUDM/ChatGLM-6B][Feature] 斗胆和大佬们讨论一个知识库相关的技术方案是否可行
8热度
5回答
[THUDM/ChatGLM-6B]tokenization中文标点符号会映射成英文标点符号
1热度
6回答
[THUDM/ChatGLM-6B][Help] <请问p-tuning 和 p-tuning V2 仅仅只修改prefix_projection 参数>吗
4热度
7回答
[THUDM/ChatGLM-6B]多卡部署高并发测试问题:部署可以平均分配显存,为啥推理预测时不行?
4热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 在对话时文本长度被限制了,对话不完整
9热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 6B模型下怎么解决
10热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] readme文档里为啥没有多卡ptuning的教程呢,或者解释一句会有什么情况吧,这个问题困扰好多人啊
3热度
6回答
[THUDM/ChatGLM-6B][Feature] 请问ChatGLM-6B支持batch inference吗?
6热度
7回答
[THUDM/ChatGLM-6B]P-tuning v2怎么多卡训练啊?能不能出一个详细教程? [BUG/Help]
0热度
5回答
[THUDM/ChatGLM-6B][Help] 如何像stable diffusion一样只要启动第一次后续就不需要联网
2热度
11回答
[THUDM/ChatGLM-6B]怎么释放GPU内存,使用torch.cuda.empty_cache()不起作用
2热度
7回答
[THUDM/ChatGLM-6B][Help] <使用deepspeed全量模型微调,内存不够用>