9热度
7回答
[THUDM/ChatGLM-6B][BUG/Help] 在官方Ptuning文档的帮助下,微调了模型,并加载了原模型和微调后的模型,但是却返回RuntimeError,BFloat16
9热度
6回答
[THUDM/ChatGLM-6B][Help] <torch1.7.1版本没有 skip_init 方法 导致加载报错>
5热度
19回答
[THUDM/ChatGLM-6B]我发现长文本生成效果不容易调出来,特别容易出现重复 例如“我吃饭了吗吗吗吗吗吗吗吗吗”
1热度
8回答
[THUDM/ChatGLM-6B][Help] 每次运行都会出现 No compiled kernel found.
4热度
12回答
[THUDM/ChatGLM-6B][BUG/Help] 请问如何基于之前的Ptuning模型,再次进行微调
2热度
36回答
[THUDM/ChatGLM-6B]多gpu如何训练 ?预测是可以的,但是训练不行
10热度
14回答
[THUDM/ChatGLM-6B]chatglm-int4 web_demo.py页面能加载出来 但是输入你好 chatglm-6b一直没有回答
6热度
7回答
1热度
8回答
[THUDM/ChatGLM-6B]微调后,测试问答生成,确实能回答我给他学习的内容 ,但后面会追加很多其它文本 这要怎么解决?
3热度
5回答
[THUDM/ChatGLM-6B]ptuning之后api预测
3热度
13回答
[THUDM/ChatGLM-6B]Ptuing生成的prefix_encoder加载后,原来模型的语言能力消息了
6热度
8回答
[THUDM/ChatGLM-6B][Help] <请问chatglm-6b有公开完整的训练代码吗?>
5热度
5回答
[THUDM/ChatGLM-6B][Help] 请教个问题,我想微调chatglm以更好的完成text2sql的场景,请问prompt该怎么设计比较好?
9热度
6回答
[THUDM/ChatGLM-6B][Help] 为什么P-tuning v2 示例参数的step是3000?
7热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <ChatGLM-6B会不会开放GLM框架下的微调代码>
3热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 使用main.py进行全量微调训练后,输出一直为空
6热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] p-tuning如何使用多卡进行微调呢?
0热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <我不得不说> 在配置不错的情况下,运行也慢,官方 demo respone 也是空的
2热度
14回答
[THUDM/ChatGLM-6B][Help] generate方法和chat方法的调用结果不一致
3热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 在有GPU的情况下,推理过程消耗CPU,并且只用CPU的1核