10热度
11回答
[protocolbuffers/protobuf][Ruby] Message.decode/encode:添加 max_recursion_depth 选项
4热度
11回答
[protocolbuffers/protobuf]两个原始消息之间的双向映射/转换
10热度
16回答
[protocolbuffers/protobuf]com.google.protobuf.GenerateMessageV3.isStringEmpty 应该是公开的
7热度
7回答
10热度
9回答
[THUDM/ChatGLM-6B]关于基于 ChatGLM-6B做增量预训练
1热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 随着对话轮数增加,有什么方法可以防止/减少ChatGLM的显存增加吗?
3热度
5回答
[THUDM/ChatGLM-6B]五万训练数据,lora微调 batchsize为2 目前跑了一个epoch,loss还是停留在2.0附近,没有下降正常吗
6热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <请问大神们 训练问答对形式,训练集以外的问题如何不回答呢?>
4热度
5回答
[THUDM/ChatGLM-6B]求大佬解决,我curl请求出现Internal Server Error
5热度
6回答
10热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning/train.sh 多卡微调就OOM,但是单卡能跑
3热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] 请问AdvertiseGen目录下的dev.json和train.json有什么区别,训练自己的问题库时,这两个json如何写
4热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 如何执行api,py时,让它的workers数量大于1
5热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <请教下提供的量化脚本和hf的load_in_8bit有什么区别>
9热度
9回答
[THUDM/ChatGLM-6B]从本地导入chatglm-6b-int4预训练时,却从缓存导入
9热度
17回答
[THUDM/ChatGLM-6B]批量推理api,支持高并发
0热度
7回答
[THUDM/ChatGLM-6B]ptuning-v2单卡转多卡训练bug [BUG/Help]
6热度
16回答
[THUDM/ChatGLM-6B]logits_prob 输出
3热度
6回答
[THUDM/ChatGLM-6B]使用huggingface + cahtglm6b单机多卡推理加速有更好的办法吗?
6热度
9回答
[alibaba/easyexcel]导出excel,其中图片在Microsoft Office正常显示,在WPS Office显示不了。