请问为什么选择p_tuning而不是lora或者prefix_tuning,这三者孰优孰劣?然后就是,我使用glm6b原版模型,对广告生成数据集做了测试,发现效果本来就非常好,是不是原版模型已经加了这个数据集?导致微调看不出效果?下面图片是我用原版glm6b做的测试:
[THUDM/ChatGLM-6B]关于p_tuning效果的疑问
回答
我这用ptuning2失败
Traceback (most recent call last):
File "main.py", line 393, in
更新transformers版本就可以了
权重文件需要使用最新的
给你一个样例,如果语料质量不高,就会变成智障
tokenizer = AutoTokenizer.from_pretrained("./ptuning/output/xxx-chatglm-6b-pt-8-1e-2/checkpoint-3000", local_files_only=True,trust_remote_code=True) model = AutoModel.from_pretrained("./ptuning/output/xxx-chatglm-6b-pt-8-1e-2/checkpoint-3000", local_files_only=True,trust_remote_code=True).half().cuda()
调优是个玄学
我就没觉得微调之后生成的广告词有多大提升,原版的模型生成的广告词看着也不错
https://github.com/liucongg/ChatGLM-Finetuning 我这边做了三元组抽取的实验,仅在embbeding上训练,效果不行,还是得在每一层上加参数
我这边用自己的问答数据微调,回复效果就是:在一本正经的胡说八道(虽然挺流畅的,也跟微调数据相关的,但是胡说八道)
可能存在数据泄露的问题