我之前在跑另外一个仓库代码的时候,就遇到了保存的adapter_model.bin合并backbone后对推理无任何影响的问题,总觉得是保存有问题。 然后在本仓库发现作者的save_model重写代码是一样的, 问题区有很多朋友遇到了和我一样的问题。 用这种重写的save model也不会有config文件的生成。 https://github.com/mymusise/ChatGLM-Tuning/issues/250 https://github.com/mymusise/ChatGLM-Tuning/issues/212 https://github.com/mymusise/ChatGLM-Tuning/issues/243 https://github.com/mymusise/ChatGLM-Tuning/issues/223 https://github.com/mymusise/ChatGLM-Tuning/issues/208 `self.model.save_pretrained(output_dir)` 最终只需要用这个接口代替即可解决。 但是我还是不太能理解为什么这个问题会对部分情况存在, 我的transformers版本是4.28.1, peft是0.3.0。 希望能够帮助其他同学避坑,也希望有同学可以帮我解答一下。