想保留原有的对话能力并增加现有的问题处理对话哪种更适合呢?lora还是ptuning???
我还有个疑问,https://github.com/THUDM/ChatGLM-6B/issues/413 说到ptuning微调之后就只支持当前任务了,这种同样是对话的任务微调之后之前的对话能力是否也会变差?如果想保留原有的对话能力并增加现有的问题处理对话是不是使用lora更适合?
Environment- OS:
- Python:
- Transformers:
- PyTorch:
- CUDA Support (`python -c "import torch; print(torch.cuda.is_available())"`) :