9热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <ChatGLM-6B会不会开放GLM框架下的微调代码>
2热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 使用main.py进行全量微调训练后,输出一直为空
8热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] p-tuning如何使用多卡进行微调呢?
7热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <我不得不说> 在配置不错的情况下,运行也慢,官方 demo respone 也是空的
5热度
14回答
[THUDM/ChatGLM-6B][Help] generate方法和chat方法的调用结果不一致
10热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 在有GPU的情况下,推理过程消耗CPU,并且只用CPU的1核
5热度
6回答
[THUDM/ChatGLM-6B]ChatGLM-6B如何实现上下午关联?
2热度
5回答
0热度
9回答
[THUDM/ChatGLM-6B]开始训练了,这个是正常的吗?
1热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] OVERFLOW导致loss异常
0热度
10回答
[THUDM/ChatGLM-6B]训练上7百万数据loss没有下降一走在3.x徘徊震荡怎么回事?还有训练完后并没有使用我的数据来回答,不知怎么回事?
7热度
11回答
[THUDM/ChatGLM-6B]API server支持更好的并发
10热度
6回答
[THUDM/ChatGLM-6B]为什么模型精度降低,推理耗时反而增大了?
1热度
18回答
[THUDM/ChatGLM-6B][BUG/Help] 有没有比较好的方式提升qps
7热度
5回答
[THUDM/ChatGLM-6B]tokenization中文标点符号会映射成英文标点符号
7热度
6回答
[THUDM/ChatGLM-6B][Help] <请问p-tuning 和 p-tuning V2 仅仅只修改prefix_projection 参数>吗
0热度
7回答
[THUDM/ChatGLM-6B]多卡部署高并发测试问题:部署可以平均分配显存,为啥推理预测时不行?
10热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 在对话时文本长度被限制了,对话不完整
2热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 6B模型下怎么解决
10热度
7回答
[THUDM/ChatGLM-6B][Help] <使用deepspeed全量模型微调,内存不够用>