6热度
5回答
[THUDM/ChatGLM-6B]关于chatGLM-6B的embedding API接口
5热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] GTX3060 Laptop运行int4-qe量化模型爆显存
2热度
7回答
[THUDM/ChatGLM-6B][BUG/Help] 显存爆满后无法释放
0热度
6回答
[THUDM/ChatGLM-6B][Help] 是否支持多进程部署
7热度
8回答
[THUDM/ChatGLM-6B][Feature] 请问如何基于特定文本对其中的内容进行解答?
8热度
7回答
[THUDM/ChatGLM-6B]如何使用amd显卡运行此模型
1热度
6回答
0热度
8回答
[THUDM/ChatGLM-6B][Help] ptuning中的数据集如何使用?
2热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning之后如何使用新的模型
5热度
7回答
[THUDM/ChatGLM-6B][Feature] 微调数据集怎样设计才能支持长文本分段输出
2热度
10回答
[THUDM/ChatGLM-6B]关于p_tuning效果的疑问
8热度
9回答
[THUDM/ChatGLM-6B][Help] 如何支持多显卡
8热度
8回答
[Chanzhaoyu/chatgpt-web]增加对ChatGLM-6B的支持
7热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] linux下chatglm-6b-int4模型无法用GPU加载
6热度
6回答
[THUDM/ChatGLM-6B][Help] macOS intel U,使用CPU推理
7热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] readme给出的最小demo示例有 bug,无法跑通
9热度
7回答
[THUDM/ChatGLM-6B]我的gpu为11G,跑不了小模型THUDM/chatglm-6b-int4-qe
3热度
7回答
[THUDM/ChatGLM-6B][Feature] 基于本地知识的 chatglm 应用,利用 langchain,可私有部署、全开源模型
5热度
5回答
3热度
7回答
[THUDM/ChatGLM-6B][Help] PTuning之后,进行evaluate时候,无法复现效果