3
Current Behavior
“进行 2 至 3 轮对话后,8-bit 量化下 GPU 显存占用约为 10GB,4-bit 量化下仅需 6GB 占用。随着对话轮数的增多,对应消耗显存也随之增长”
我使用ChatGLM实现一个角色扮演的应用,也遇到了类似问题。每次对话后,ChatGLM显存使用增加几百到1、2G。
- 请问为什么会这样呢?是因为模型内部把上轮对话的历史保存了起来?
- 有什么方法可以防止或者减少显存的增加吗?我可以使用prompt带入上下文历史,不需要模型内部保存上下文
感谢!
Steps To Reproduce正常和ChatGLM对话即可
Environment- OS: Ubuntu 20.04
- Python: 3.10
- Transformers: 4.26.1
- PyTorch: 1.12
- CUDA Support: True