一、前言
在应对业务访问量级提升的过程中,我们通过从单机单卡部署升级到单机多卡部署的方式,成功实现了VLLM模型的性能提升。在此过程中,我们遇到了一些问题和挑战,现在我将深入剖析这些经验教训,希望能够帮助大家快速上手部署可投入生产运行的环境。
本次采用入门级的4090双卡 24GB显存的配置,部署Meta-Llama-3.1-8B-Instruct 模型。
Meta-Llama-3.1-8B-Instruct 模型具有众多显著的好处。它能够凭借出色的语言理解和生成能力,精准地理解用户输入的各种复杂指令,并生成逻辑清晰、内容丰富且连贯的高质量回复。其在多语言处理方面表现出色,可轻松应对不同语言的输入和输出,拓宽了应用场景和用户群体。为用户带来更加优质和个性化的服务体验。
二、术语
2.1. vLLM
vLLM是一个开源的大模型推理加速框架,通过PagedAttention高效地管理attention中缓存的张量,实现了比HuggingFace Transformers高14-24倍的吞吐量。
2.2. Meta-Llama-3.1-8B-Instruct
新的 Llama 3.1 模型包括 8B、70B、405B