Tag: Low-Rank Adaptation
All the articles with the tag "Low-Rank Adaptation".
-
MELoRA: Mini-Ensemble Low-Rank Adapters for Parameter-Efficient Fine-Tuning
本文提出MELoRA,通过并行堆叠多个小型LoRA模块实现更高的等效秩,以更少的参数在自然语言理解和指令跟随任务上显著优于LoRA。
-
Initialization using Update Approximation is a Silver Bullet for Extremely Efficient Low-Rank Fine-Tuning
本文提出LoRA-SB方法,通过基于全参数微调第一步梯度近似的初始化策略优化低秩微调,在参数量减少27-90倍的情况下,显著超越LoRA-XS并接近全参数微调性能。
-
Two Is Better Than One: Rotations Scale LoRAs
本文提出 *RadarGate*,一种基于几何的门控方法,通过旋转和拉伸操作增强 LoRA-MoE 的表达能力,在拟合、泛化和可扩展性方面显著优于现有方法,实验结果在 6 个基准数据集的 21 个任务上得到验证。
-
Activated LoRA: Fine-tuned LLMs for Intrinsics
本文提出 Activated LoRA (aLoRA),一种改进的 LoRA 框架,通过仅对激活后 token 适配权重,复用基础模型 KV 缓存,实现高效动态适配,并在多个任务上保持与标准 LoRA 相当的性能,同时显著降低推理成本。
-
TT-LoRA MoE: Unifying Parameter-Efficient Fine-Tuning and Sparse Mixture-of-Experts
本文提出TT-LoRA MoE框架,通过两阶段训练结合张量分解的低秩适配器和动态稀疏路由机制,以极低的参数量(LoRA的2%,AdapterFusion的0.03%)实现多任务NLP分类任务的竞争性性能,平均准确率提升约4个百分点,同时解决任务干扰和知识遗忘问题。