Tag: Large Language Model
All the articles with the tag "Large Language Model".
-
CachePrune: Neural-Based Attribution Defense Against Indirect Prompt Injection Attacks
本文提出CachePrune方法,通过基于DPO损失的特征归因识别并修剪KV缓存中的关键神经元,防御间接提示注入攻击,同时保持模型响应质量。
-
SuperARC: An Agnostic Test for Narrow, General, and Super Intelligence Based On the Principles of Recursive Compression and Algorithmic Probability
本文提出SuperARC测试框架,通过算法概率和Kolmogorov复杂度的原理,设计了一个客观的AGI和ASI评估方法,证明递归压缩等价于预测,并展示了LLMs的局限性。
-
Synergizing RAG and Reasoning: A Systematic Review
本论文系统综述了检索增强生成(RAG)与推理能力的协同整合,构建了多维分类框架、提供了实用指南,并指出了未来研究方向,以推进RAG系统在复杂任务中的认知能力。
-
Beyond Public Access in LLM Pre-Training Data
本文通過DE-COP成員推斷攻擊方法,使用O'Reilly書籍數據集證明OpenAI的GPT-4o可能訓練過非公共版權內容,突顯了LLM預訓練數據中非公共數據使用增加的趨勢及加強透明度和許可框架的必要性。
-
On-Device Qwen2.5: Efficient LLM Inference with Model Compression and Hardware Acceleration
本文提出软件硬件协同优化框架,通过 AWQ 模型压缩和 FPGA 加速在边缘设备上高效部署 Qwen2.5-0.5B 模型,实现 55.1% 的压缩率和 5.1 tokens/s 的推理速度,同时保持较高准确性。