8热度
5回答
[THUDM/ChatGLM-6B]关于chatGLM-6B的embedding API接口
7热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] GTX3060 Laptop运行int4-qe量化模型爆显存
7热度
7回答
[THUDM/ChatGLM-6B][BUG/Help] 显存爆满后无法释放
10热度
6回答
[THUDM/ChatGLM-6B][Help] 是否支持多进程部署
10热度
8回答
[THUDM/ChatGLM-6B][Feature] 请问如何基于特定文本对其中的内容进行解答?
4热度
7回答
[THUDM/ChatGLM-6B]如何使用amd显卡运行此模型
0热度
6回答
5热度
8回答
[THUDM/ChatGLM-6B][Help] ptuning中的数据集如何使用?
2热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] ptuning之后如何使用新的模型
4热度
7回答
[THUDM/ChatGLM-6B][Feature] 微调数据集怎样设计才能支持长文本分段输出
9热度
10回答
[THUDM/ChatGLM-6B]关于p_tuning效果的疑问
3热度
9回答
[THUDM/ChatGLM-6B][Help] 如何支持多显卡
6热度
8回答
[Chanzhaoyu/chatgpt-web]增加对ChatGLM-6B的支持
4热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] linux下chatglm-6b-int4模型无法用GPU加载
2热度
6回答
[THUDM/ChatGLM-6B][Help] macOS intel U,使用CPU推理
7热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] readme给出的最小demo示例有 bug,无法跑通
4热度
7回答
[THUDM/ChatGLM-6B]我的gpu为11G,跑不了小模型THUDM/chatglm-6b-int4-qe
5热度
7回答
[THUDM/ChatGLM-6B][Feature] 基于本地知识的 chatglm 应用,利用 langchain,可私有部署、全开源模型
8热度
5回答
0热度
7回答
[THUDM/ChatGLM-6B][Help] PTuning之后,进行evaluate时候,无法复现效果