3热度
13回答
[THUDM/ChatGLM-6B]Ptuing生成的prefix_encoder加载后,原来模型的语言能力消息了
4热度
8回答
[THUDM/ChatGLM-6B][Help] <请问chatglm-6b有公开完整的训练代码吗?>
8热度
5回答
[THUDM/ChatGLM-6B][Help] 请教个问题,我想微调chatglm以更好的完成text2sql的场景,请问prompt该怎么设计比较好?
10热度
6回答
[THUDM/ChatGLM-6B][Help] 为什么P-tuning v2 示例参数的step是3000?
6热度
14回答
0热度
12回答
[PaddlePaddle/PaddleOCR]tensorrt使用相关问题
6热度
18回答
[PaddlePaddle/PaddleOCR]部署后发送服务请求失敗
5热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <ChatGLM-6B会不会开放GLM框架下的微调代码>
6热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 使用main.py进行全量微调训练后,输出一直为空
7热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] p-tuning如何使用多卡进行微调呢?
7热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <我不得不说> 在配置不错的情况下,运行也慢,官方 demo respone 也是空的
6热度
14回答
[THUDM/ChatGLM-6B][Help] generate方法和chat方法的调用结果不一致
4热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 在有GPU的情况下,推理过程消耗CPU,并且只用CPU的1核
8热度
6回答
[THUDM/ChatGLM-6B]ChatGLM-6B如何实现上下午关联?
5热度
5回答
6热度
9回答
[THUDM/ChatGLM-6B]开始训练了,这个是正常的吗?
4热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] OVERFLOW导致loss异常
4热度
10回答
[THUDM/ChatGLM-6B]训练上7百万数据loss没有下降一走在3.x徘徊震荡怎么回事?还有训练完后并没有使用我的数据来回答,不知怎么回事?
2热度
11回答
[THUDM/ChatGLM-6B]API server支持更好的并发
1热度
6回答
[THUDM/ChatGLM-6B]为什么模型精度降低,推理耗时反而增大了?