在做毕设的多模态大模型微调时,我遇到了一个很奇怪的问题:模型明明已经给出了正确回答,却会在正确回答后紧接着输出一大段乱码。
经探索发现:这一问题的根源是结尾符(EOS Token)的输出问题。大语言模型的推理以自回归概率输出为基础,判断回答结束的方法也是识别到输出结果中的结尾符,而Qwen base模型的微调过程中正会出现与之相关的问题,导致了本文所述现象的发生。本文将探讨这一问题的原因和解决方案。
在做毕设的多模态大模型微调时,我遇到了一个很奇怪的问题:模型明明已经给出了正确回答,却会在正确回答后紧接着输出一大段乱码。
经探索发现:这一问题的根源是结尾符(EOS Token)的输出问题。大语言模型的推理以自回归概率输出为基础,判断回答结束的方法也是识别到输出结果中的结尾符,而Qwen base模型的微调过程中正会出现与之相关的问题,导致了本文所述现象的发生。本文将探讨这一问题的原因和解决方案。