1热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] readme给出的最小demo示例有 bug,无法跑通
0热度
7回答
[THUDM/ChatGLM-6B][Help] PTuning之后,进行evaluate时候,无法复现效果
3热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 布置到windows服务器上,没有报错,但AI也没有回复
10热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] <使用evaluate.sh 评估模型效果时报错>
0热度
5回答
[THUDM/ChatGLM-6B]如何在微调后应该对其进行下游任务的训练TRAIN this model on a down-stream[BUG/Help]
9热度
12回答
2热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] M1上无法运行,报错“AssertionError: Torch not compiled with CUDA enabled”
8热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] <CPU无法使用int4模型>
2热度
17回答
[THUDM/ChatGLM-6B]deepspeed inference 显存问题
0热度
7回答
[THUDM/ChatGLM-6B][Feature] 训练1M数据需要多久
2热度
4回答
[THUDM/ChatGLM-6B][BUG/Help] 在训练完成后测试没有返回结果
0热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 微调后无法给出完整回答
9热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] linux系统,使用cpu,系统运行后卡住不回答是怎么回事儿?
8热度
6回答
0热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <p-tuning v2微调>
1热度
7回答
[THUDM/ChatGLM-6B][BUG/Help] 在官方Ptuning文档的帮助下,微调了模型,并加载了原模型和微调后的模型,但是却返回RuntimeError,BFloat16
2热度
6回答
[THUDM/ChatGLM-6B][Help] <torch1.7.1版本没有 skip_init 方法 导致加载报错>
6热度
19回答
[THUDM/ChatGLM-6B]我发现长文本生成效果不容易调出来,特别容易出现重复 例如“我吃饭了吗吗吗吗吗吗吗吗吗”
0热度
8回答
[THUDM/ChatGLM-6B][Help] 每次运行都会出现 No compiled kernel found.
2热度
12回答
[THUDM/ChatGLM-6B][BUG/Help] 请问如何基于之前的Ptuning模型,再次进行微调