CNNSum: Exploring Long-Context Summarization with Large Language Models in Chinese Novels

本文是LLM系列文章,针对《CNNSum: Exploring Long-Context Summarization with Large Language Models in Chinese Novels》的翻译。

CNNSum:用大语言模型探索中国小说的长语境概括

摘要

大型语言模型(LLMs)在各种长上下文任务中得到了很好的研究。然而,高质量的长上下文摘要数据集的稀缺阻碍了这一领域的进一步发展。为了解决这个问题,我们引入了CNNSum,这是一个基于中国小说的多尺度长上下文摘要基准,以人为驱动的注释为特征,由四个子集组成,共695个样本,长度从16k到128k不等。我们评估了许多LLM并进行了详细的案例分析。此外,我们进行了广泛的微调实验,以探索和改进长上下文摘要。在我们的研究中:(1)像GPT-4o这样的高级LLM仍然可能产生主观评论,导致模糊的总结。(2) 目前,长上下文摘要主要依赖于较长上下文长度所提供的记忆能力。大型LLM的优点很难利用,因此小型LLM是最具成本效益的。(3) 不同的提示模板与不同的版本模型配对可能会导致较大的性能差距。在进一步的微调中,这些问题可以得到缓解,基础版本模型的性能会更好。(4) 具有RoPE基准规模的LLM具有很强的外推潜力;使用短上下文数据可以显著提高长上下文摘要的性能。然而,进一步应用其他

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值