5热度
10回答
[PaddlePaddle/PaddleOCR]【OCR Issue No.9】移除明确不适合放在ppocr依赖中的依赖项
5热度
22回答
[PaddlePaddle/PaddleOCR]paddleOCR运行印章比对模型报错
7热度
27回答
[PaddlePaddle/PaddleOCR]训练时,训练几天后最佳准确率显示0.43时,有的时候准确率就会变到0.25,这种只能加载最佳模型,重新启动训练吧
3热度
19回答
[protocolbuffers/protobuf]默认为 python 实现不一致,使用 cpp 时出现错误
2热度
7回答
6热度
9回答
[THUDM/ChatGLM-6B]关于基于 ChatGLM-6B做增量预训练
10热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 随着对话轮数增加,有什么方法可以防止/减少ChatGLM的显存增加吗?
3热度
5回答
[THUDM/ChatGLM-6B]五万训练数据,lora微调 batchsize为2 目前跑了一个epoch,loss还是停留在2.0附近,没有下降正常吗
4热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <请问大神们 训练问答对形式,训练集以外的问题如何不回答呢?>
4热度
5回答
[THUDM/ChatGLM-6B]求大佬解决,我curl请求出现Internal Server Error
1热度
6回答
7热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning/train.sh 多卡微调就OOM,但是单卡能跑
2热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] 请问AdvertiseGen目录下的dev.json和train.json有什么区别,训练自己的问题库时,这两个json如何写
1热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 如何执行api,py时,让它的workers数量大于1
7热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <请教下提供的量化脚本和hf的load_in_8bit有什么区别>
2热度
9回答
[THUDM/ChatGLM-6B]从本地导入chatglm-6b-int4预训练时,却从缓存导入
9热度
17回答
[THUDM/ChatGLM-6B]批量推理api,支持高并发
3热度
7回答
[THUDM/ChatGLM-6B]ptuning-v2单卡转多卡训练bug [BUG/Help]
5热度
16回答
[THUDM/ChatGLM-6B]logits_prob 输出
9热度
6回答
[THUDM/ChatGLM-6B]使用huggingface + cahtglm6b单机多卡推理加速有更好的办法吗?