Tag: Efficiency
All the articles with the tag "Efficiency".
-
Decom-Renorm-Merge: Model Merging on the Right Space Improves Multitasking
本文提出Decom-Renorm-Merge(DRM)方法,通过奇异值分解和重归一化构建共享表示空间以合并多任务模型权重,在视觉和语言任务上显著优于现有方法。
-
One-shot Entropy Minimization
本文提出一-shot熵最小化(EM)方法,通过仅使用单个无标签数据和10步优化即可显著提升大型语言模型在数学推理任务上的性能,媲美或超越传统强化学习方法。
-
SeMe: Training-Free Language Model Merging via Semantic Alignment
本文提出SeMe,一种基于语义对齐的无训练、无数据语言模型合并方法,通过潜在空间的语义分解和变换实现参数融合,旨在保留模型行为并稳定内部知识,但缺乏充分的实验验证。
-
Parallel Scaling Law for Language Models
本文提出并行扩展(PARSCALE)方法,通过增加训练和推理时的并行计算流(P)来提升语言模型能力,理论和实验表明P流相当于参数扩展O(log P),并在低资源场景下展现出更高的推理效率。
-
ShiQ: Bringing back Bellman to LLMs
本文提出ShiQ算法,通过从Bellman一致性方程出发设计适应LLM特性的损失函数,支持离线、token级的强化学习微调,并在单轮和多轮任务中表现出优于DPO和CoPG的奖励优化能力。