Skip to content
Go back 2504.1778 arXiv logo

Replay to Remember: Retaining Domain Knowledge in Streaming Language Models

Published:  at  04:30 PM
65.14 🤔

本文通过结合LoRA和轻量级重放机制的方法,在流式学习条件下帮助大型语言模型减轻灾难性遗忘,同时实现了实时域适应。

Continual Learning, Large Language Model, Parameter-Efficient Fine-Tuning, Low-Rank Adaptation, Domain Adaptation, Catastrophic Forgetting

Sneh Pillai

University of Massachusetts Dartmouth

Generated by grok-3-mini-latest

Background Problem

大型语言模型(LLMs)在持续学习中面临灾难性遗忘的重大挑战,即当暴露于新数据时,先前习得的知识会迅速退化。尽管诸如重放缓冲区和低秩适应(LoRA)等技术已被提出,但鲜有研究探讨在严格的计算资源和数据流约束下的实时域适应。本文的工作起点是解决在资源受限的真实世界场景中,LLMs如何能够持续适应新知识流而不丢失先前领域知识。

Method

Experiment

Further Thoughts

这项研究强调了重放机制在持续学习中的重要性,启发我们探索更先进的策略,如基于重要性的样本选择或多域适配器融合,以进一步减少遗忘;此外,结合其他领域如计算机视觉的增量学习或强化学习的经验回放,可能带来交叉启发,并考虑元学习来改善初始适应能力。



Previous Post
GuidedQuant: Large Language Model Quantization via Exploiting End Loss Guidance
Next Post
HyPerAlign: Hypotheses-driven Personalized Alignment