8热度
5回答
[ggerganov/llama.cpp]添加对oai python服务器中函数调用的基本支持
3热度
17回答
[ggerganov/llama.cpp]简单的转换脚本在 Linux 上耗尽了 tmpfs 空间
1热度
5回答
[ggerganov/llama.cpp]iOS swift 包似乎使用了 NEWLAPACK 的内部符号:cblas_sgemm,导致使用此符号的应用程序无法发布到 App Store
6热度
16回答
[ggerganov/llama.cpp][用户] 实现 Streaming LLM - 让推理更高效
9热度
16回答
[ggerganov/llama.cpp]转换:更新 Falcon 脚本以适应新的 HF 配置
7热度
5回答
[ggerganov/llama.cpp][bug] 运行多 GPU 推理时,ROCm 出现段错误。
7热度
26回答
[ggerganov/llama.cpp]检查 CUDA 内存池支持
4热度
6回答
0热度
10回答
[THUDM/ChatGLM-6B]菜鸟选手请教:如何构建自己的数据集
10热度
10回答
[THUDM/ChatGLM-6B]ptuning 的evaluate.sh执行失败
7热度
5回答
7热度
6回答
[THUDM/ChatGLM-6B][Help]请教有没有方法拓展Chat-GLM-6B在某个学科领域的知识储备?
1热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] 布置到windows服务器上,没有报错,但AI也没有回复
9热度
9回答
[THUDM/ChatGLM-6B][BUG/Help] <使用evaluate.sh 评估模型效果时报错>
10热度
5回答
[THUDM/ChatGLM-6B]如何在微调后应该对其进行下游任务的训练TRAIN this model on a down-stream[BUG/Help]
10热度
12回答
3热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] M1上无法运行,报错“AssertionError: Torch not compiled with CUDA enabled”
1热度
2回答
[SJTU-IPADS/PowerInfer]在A100-80G上无法找到cuda的情况
4热度
1回答
2热度
1回答