本文是LLM系列文章,针对《Unveiling the Generalization Power of Fine-Tuned Large Language Models》的翻译。
摘要
虽然大型语言模型(LLM)已经证明了非凡的多任务处理能力,但在下游特定领域的数据集上对这些模型进行微调通常是必要的,以在测试集上产生优于未进行微调的测试集的性能。然而,微调对LLM泛化能力的综合影响还没有完全理解。本文深入探讨了原始、未修改的LLM及其微调变体之间的差异。我们的主要研究集中在微调是否会影响LLM固有的泛化能力。为了详细说明这一点,我们在不同的数据集上对五种不同的语言任务进行了广泛的实验。我们的主要发现表明,对生成和分类任务进行微调的模型在推广到不同的领域和任务时表现出不同的行为。有趣的是,我们观察到,在生成任务的微调过程中集成上下文中的学习策略可以增强模型的泛化能力。通过这项系统的调查,我们旨在为LLM微调实践的演变提供有价值的见解。代码和数据在https://github.com/LHRYANG/Generalization_of_FT-LLM上可用。