Tag: Fine-tuning
All the articles with the tag "Fine-tuning".
-
Analyzing Mitigation Strategies for Catastrophic Forgetting in End-to-End Training of Spoken Language Models
本文研究了口语语言模型(SLM)端到端训练中的灾难性遗忘问题,通过评估模型合并、LoRA缩放因子折扣和经验回放三种策略,发现经验回放最为有效,且结合其他方法可进一步提升性能。
-
IDEAL: Data Equilibrium Adaptation for Multi-Capability Language Model Alignment
IDEAL提出了一种基于梯度的迭代数据均衡适应框架,通过动态优化监督微调(SFT)中多领域数据集的比例,在2次迭代内显著提升大型语言模型的多任务性能,平均得分提高约7%。
-
Navigating the Accuracy-Size Trade-Off with Flexible Model Merging
FlexMerge提出了一种无数据的灵活模型合并框架,通过逐块贪婪合并微调模型,支持任意大小模型生成,并在精度-大小权衡上展现出显著的初期精度提升和接近微调精度的潜力。
-
Next Token Perception Score: Analytical Assessment of your LLM Perception Skills
本文提出Next Token Perception Score (NTPS),一个量化自回归预训练与下游感知任务特征子空间对齐程度的度量方法,通过理论证明和实验验证其与线性探针性能的相关性,并展示其预测LoRA微调增益的实用性。
-
Fine-Tuning on Diverse Reasoning Chains Drives Within-Inference CoT Refinement in LLMs
本文提出DCoT方法,通过在单次推理步骤内生成多个多样化推理链并进行自我改进,显著提升了大型语言模型在复杂推理任务上的性能,尤其在结果空间较大的任务中效果突出。