10热度
9回答
[protocolbuffers/protobuf]生成的 kotlin 代码仍然抛出“内联的预期性能影响微不足道”警告
0热度
10回答
[protocolbuffers/protobuf][C#] 将 .NET SDK 更新到 LTS 版本
7热度
8回答
[protocolbuffers/protobuf]protoc 允许源代码和字符串类型的选项值中存在无效的 UTF-8
4热度
19回答
[protocolbuffers/protobuf]默认为 python 实现不一致,使用 cpp 时出现错误
2热度
17回答
[protocolbuffers/protobuf][C#] 修复修剪警告
0热度
9回答
[protocolbuffers/protobuf]固定多重构建脚本以恢复 Manylinux1 轮子
1热度
11回答
[protocolbuffers/protobuf][Ruby] Message.decode/encode:添加 max_recursion_depth 选项
1热度
11回答
[protocolbuffers/protobuf]两个原始消息之间的双向映射/转换
4热度
16回答
[protocolbuffers/protobuf]com.google.protobuf.GenerateMessageV3.isStringEmpty 应该是公开的
9热度
7回答
9热度
9回答
[THUDM/ChatGLM-6B]关于基于 ChatGLM-6B做增量预训练
2热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] 随着对话轮数增加,有什么方法可以防止/减少ChatGLM的显存增加吗?
4热度
5回答
[THUDM/ChatGLM-6B]五万训练数据,lora微调 batchsize为2 目前跑了一个epoch,loss还是停留在2.0附近,没有下降正常吗
7热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <请问大神们 训练问答对形式,训练集以外的问题如何不回答呢?>
8热度
5回答
[THUDM/ChatGLM-6B]求大佬解决,我curl请求出现Internal Server Error
8热度
6回答
4热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning/train.sh 多卡微调就OOM,但是单卡能跑
6热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] 请问AdvertiseGen目录下的dev.json和train.json有什么区别,训练自己的问题库时,这两个json如何写
8热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 如何执行api,py时,让它的workers数量大于1
9热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <请教下提供的量化脚本和hf的load_in_8bit有什么区别>