FTP: A FINE-GRAINED TOKEN-WISE PRUNER FOR LARGE LANGUAGE MODELS VIA TOKEN ROUTING

本文是LLM系列文章,针对《FTP: A FINE-GRAINED TOKEN-WISE PRUNER FOR LARGE LANGUAGE MODELS VIA TOKEN ROUTING》的翻译。

FTP:通过token路由为大型语言模型提供细粒度的token修剪器

摘要

最近,大型语言模型(LLM)通过遵守缩放定律,在各种任务中表现出卓越的性能,这大大增加了模型的大小。然而,推理过程中巨大的计算开销阻碍了在工业应用中的部署。许多工作利用传统的压缩方法来增强模型推理,但这些方法总是会引入额外的训练成本来恢复性能,并且当目标是特定水平的加速时,修剪结果通常会显示出与原始模型相比明显的性能下降。为了解决这些问题,我们提出了一种针对LLM的细粒度token修剪方法,该方法提供了一种可学习的路由器,可以自适应地识别不太重要的token,并在模型块之间跳过它们,以降低推理过程中的计算成本。为了有效地构建路由器,我们提出了一种基于搜索的稀疏调度器来修剪稀疏分配,一种可训练的路由器,结合了我们提出的四个低维因子作为输入和三个提出的损失。我们在不同LLM的不同基准上进行了广泛的实验,以证明我们方法的优越性。我们的方法实现了最先进的(SOTA)修剪结果,超越了其他现有的修剪方法。例如,在可比的token稀疏度水平下,我们的方法在LLaMA2-7B和Qwen1.5-7B上的准确性保持率比BlockPruner和ShortG

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值