An Empirical Analysis of Compute-Optimal Inference for Problem-Solving with Language Models

本文是LLM系列文章,针对《An Empirical Analysis of Compute-Optimal Inference for Problem-Solving with Language Models》的翻译。

语言模型问题求解计算最优推理的实证分析

摘要

大型语言模型(LLM)在模型大小和计算预算方面的最佳训练配置已经得到了广泛的研究。但是,如何在推理过程中优化配置LLM还没有得到足够深入的探索。我们研究计算最优推理:设计模型和推理策略,以最佳地权衡额外的推理时间计算以提高性能。作为理解和设计计算最优推理方法的第一步,我们评估了贪婪搜索、多数投票、最佳N、加权投票等多种推理策略及其变体在两种不同的树搜索算法上的有效性和计算效率,涉及不同的模型大小和计算预算。我们发现,具有新颖树搜索算法的较小语言模型通常可以实现帕累托最优权衡。这些结果突显了在预算受限的场景中(例如在终端设备上)部署配备更复杂解码算法的较小模型以提高问题解决准确性的潜在好处。例如,我们证明,在MATH500上,Llemma-7B模型可以在使用2×更少的FLOP的情况下达到与Llemma-34B模型相当的精度。我们的发现可能适用于任何具有明确成功衡量标准的发电任务。

1 引言

2 相关工作

3 计算问题求解的最优推理

4 实验<

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值