A Comparative Study between Full-Parameter and LoRA-based Fine-Tuning on
Chinese Instruction Data for Instruction Following Large Language Model
解决问题:本文旨在比较全参数调优和基于LoRA的调优在中文指令数据上的效果,探究如何在训练大型语言模型时在训练成本和模型性能之间找到更好的平衡点。
关键思路:本文通过实验对比全参数调优和基于LoRA的调优方法,使用LLaMA作为基础模型,发现基础模型的选择、训练数据集规模、可学习参数数量和模型训练成本等因素都对结果有重要影响。相比之前的研究,本文提出了一种新的解决方案,即使用基于LoRA的调优方法,该方法在训练成本方面具有明显优势。
其他亮点:本文的实验结果对训练大型语言模型具有一定的指导意义,尤其是在中文领域。同时,为了方便其他研究人员重现实验结果,本文提供了数据集、模型和代码。
关于作者:本文的主要作者为孙祥辉、季云杰、马宝昌和李向刚,他们分别来自哪个机构本文没有给出。根据我的数据库,孙祥辉曾发表过《基于深度学习的图像检索研究》等论文。
相关研究:近期的相关研究包括《Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer》(Colin Raffel等,Google Research)、《Pre-training Transformers as Energy-Based Cloze Models》(Patrick von Platen等,Facebook AI Research)等。
论文摘要:本文题为“基于全参数和基于LoRA的微调方法在中文指令数据上对大型语言模型的比较研究”,研究的是大型语言模型微调的关键领域——指令微调。由于资源和成本的限制,一些研究人员采用了参数有效的微调技术,如LoRA,用于指令微调,并取得了令人鼓舞的结果。与全参数微调相比,基于LoRA的微调在训练成本方面具有显著的优势。本研究利用LLaMA作为基础模型,对全参数微调和基于LoRA的微调方法进行了实验比较。实验结果表明,基础模型的选择、训练数据集规模、可学习参数数量和模型训练成本都是重要因素。我们希望本文的实验结论能够为大型语言模型的训练提供启示,特别是在中文领域,帮助研究人员找到更好的训练成本和模型性能的权衡策略。为了便于重现本文的结果,数据集、模型和代码都将被发布。