实战教程:用一张4090显卡+512GB内存部署671B的Deepseek大模型

近日,清华大学MADSys团队正式开源了面向资源受限环境的KTransformers算法框架。基于该框架的技术特性,用户可以在一张4090显卡的设备中部署满血671B的Deepseek。老王看到这个消息非常兴奋,因为这意味着只需要几万块钱就可以实现原本需要百万才能实现的“满血梦”。

老王在工作之余,赶紧找了一台设备,实际操练一下,先实现自己的“满血梦”。 同时,我把我自己的部署过程记录了下来,供大家参考学习。

1、硬件配置

系统

openEuler22.03 (LTS-SP1)

显卡

1*4090

内存

512GB

2、部署ktransformer

a.参考以下文件安装环境

https://kvcache-ai.github.io/ktransformers/en/install.html#id_666

i.编译gcc/g++ ,安装conda环境

# Adding CUDA to PATH
export PATH=/usr/local/cuda/bin: P A T H e x p o r t L D _ L I B R A R Y _ P A T H = / u s r / l o c a l / c u d a / l i b 64 : PATH export LD\_LIBRARY\_PATH=/usr/local/cuda/lib64: PATHexportLD_LIBRARY_PATH=/usr/local/cuda/lib64:LD_LIBRARY_PATH
export CUDA_PATH=/usr/local/cuda

编译ktransformer

sudo dnf update
sudo dnf install gcc g++ cmake ninja-build

创建conda环境,推荐使用python3.11版本

conda create --name ktransformers python=3.11
conda activate ktransformers
pip install torch packaging ninja cpufeature numpy

ii.遇到服务器拉取github的网络问题,可以先clone到本地,执行init和update后,然后打包上传到服务器

git clone https://github.com/kvcache-ai/ktransformers.git
cd ktransformers
git submodule init
git submodule update

iii.根据linux的服务器配置,主要是内存是否大于1TB,执行不同的安装步骤

内存小于1TB

bash install.sh

内存大于1TB的情况下

export USE_NUMA=1
bash install.sh # or `make dev_install`

iv.ktransformer需要flash atten的支持,必须安装

pip install flash_attn

b.模型下载

推荐使用别人已经量化好的模型(INT4精度/R1全参数量化版本)

(若需执行自定义量化流程,请参考附录A-量化实验记录章节)

i.直接下载

1.在服务器上下载GGUF的模型权重,国内推荐从huggingface镜像网站或者modelscope网站下载

2.https://hf-mirror.com/unsloth/DeepSeek-R1-GGUF

3.https://www.modelscope.cn/models/unsloth/DeepSeek-R1-GGUF/files

pip install -U huggingface_hub
export HF_ENDPOINT=https://hf-mirror.com
export HUGGINGFACE_HUB_TIMEOUT=600

下载量化模型

huggingface-cli download --local-dir /usr/share/ollama/deepseek-R1-GGUF unsloth/DeepSeek-R1-GGUF --include “DeepSeek-R1-Q4_K_M/*”

下载R1的tokenizer.json,config等文件

huggingface-cli download --local-dir /usr/share/ollama/DeepSeek-R1 deepseek-ai/DeepSeek-R1 --exclude “*.msgpack” “*.onnx” “*.bin” “*.ot” “*.h5” “*.safetensors”

下载记录(此处省略一万字)

ii.执行以下命令,启动ktransformer

export CUDA_VISIBLE_DEVICES=6

python -m ktransformers.local_chat --model_path /usr/share/ollama/DeepSeek-R1 --gguf_path /usr/share/ollama/deepseek-R1-GGUF/DeepSeek-R1-Q4_K_M

多GPU

export CUDA_VISIBLE_DEVICES=4,5,6,7
python -m ktransformers.local_chat --model_path /usr/share/ollama/DeepSeek-R1 --gguf_path /usr/share/ollama/deepseek-R1-GGUF/DeepSeek-R1-Q4_K_M --max_new_tokens 4096 --optimize_rule_path ktransformers/optimize/optimize_rules/DeepSeek-V3-Chat-multi-gpu-4.yaml

各个参数的中文解释:

–model_path (必需):模型的名称(例如“deepseek-ai/DeepSeek-V2-Lite-Chat”,它会自动从 Hugging Face 下载配置文件)。如果您已经有本地文件,可以直接使用该路径来初始化模型。注意:目录中不需要.safetensors文件,只需要配置文件即可用来构建模型和分词器。

–gguf_path (必需):包含 GGUF 文件的目录路径,这些文件可以从 Hugging Face 下载。注意该目录应该只包含当前模型的 GGUF 文件,也就是说,每个模型需要一个独立的目录。

–optimize_rule_path (必需,除了 Qwen2Moe 和 DeepSeek-V2):包含优化规则的 YAML 文件路径。ktransformers/optimize/optimize_rules 目录下已经预写了两个规则文件,分别用于优化 DeepSeek-V2 和 Qwen2-57B-A14,这两个是当前的最先进 MoE 模型。

–max_new_tokens:整数(默认值=1000)。生成的最大新令牌数。

–cpu_infer:整数(默认值=10)。推理时使用的 CPU 核心数。理想情况下应设置为(总核数 - 2)。

3.测试

a.单GPU,每秒4个token

Chat: 强化学习 会使用gpu吗
嗯,用户问的是强化学习会不会使用GPU。首先,我需要确认强化学习的基本概念,以及GPU在其中的作用。强化学习属于机器学习的一个分支,主要用于训练智能体通过与环境互动来学习策略。传统的机器学习很多都会用到GPU加速,尤其是深度学习,因为GPU在处理矩阵运算上比CPU快很多。

接下来,我需要考虑强化学习的不同应用场景。比如,如果用的是传统的Q-learning或者SARSA这类表格型方法,可能不需要GPU,因为它们的计算量不大,主要依赖CPU处理。但如果是结合了深度学习的强化学习方法,比如深度Q网络(DQN)、策略梯度方法(PPO)或者Actor-Critic框架,这时候神经网络模型训练就需要大量矩阵运算,GPU的优势就显现出来了。

然后,用户可能想知道具体在哪些情况下会用到GPU。例如,当处理高维状态空间(如图像输入)时,使用卷积神经网络来处理这些输入,这时候GPU加速训练过程就非常关键。另外,像模拟环境,比如机器人控制或者游戏AI(如AlphaGo),可能需要大量的并行模拟,这时候GPU甚至TPU可能会有帮助。

还要考虑用户可能的背景。如果用户是刚开始学习强化学习,可能对硬件需求不太清楚,或者担心是否需要投资GPU资源。这时候需要说明,虽然GPU可以加速训练,但入门阶段的小规模问题用CPU就够了,等到处理复杂问题时再考虑GPU。

另外,用户可能想知道是否有替代方案,比如云计算平台或者训练。这时候可以
prompt eval count: 12 token(s)
prompt eval duration: 2.265155792236328s
prompt eval rate: 5.297648859795519 tokens/s
eval count: 300 token(s)
eval duration: 65.83381295204163s
eval rate: 4.556928826506569 tokens/s

b.多GPU,4*4090,每秒4.5个token

Chat: 介绍下思腾合力
好的,用户让我介绍一下思腾合力。首先,我需要确认思腾合力的基本信息,比如公司背景、主营业务、产品服务、市场定位等。可能还需要了解他们的核心技术、合作伙伴、行业地位以及发展历程。

用户可能是想了解这家公司是否可靠,或者考虑合作、求职,或者只是好奇。需要判断用户的需求层次,是表面的概述还是深入的技术细节。如果用户没有特别说明,应该提供全面的信息,涵盖公司介绍、产品服务、技术优势、应用场景等。

接下来,我需要查找思腾合力的相关资料。可能他们的官网、新闻报道、行业报告都是信息来源。需要确保信息的准确性和时效性,比如公司成立时间、最新动态、主要成就等。同时要注意是否有不同来源的信息矛盾,需要交叉验证。

思腾合力可能专注于某个领域,比如人工智能、云计算、大数据等。需要明确他们的核心业务,是否有自主研发的技术,或者主要提供解决方案。例如,他们可能提供AI服务器、云计算平台,或者行业定制化解决方案。

还要考虑他们的客户和合作伙伴,是否有知名企业或政府机构合作案例,这能体现公司的实力和信誉。此外,公司的发展历程中的重要事件,比如融资、上市、重大合作项目,也是值得提及的。

技术优势方面,是否有专利、认证,或者独特的技术架构。例如,是否在AI芯片、算法优化、数据处理等方面有创新。应用场景方面,他们的产品和服务适用于哪些行业,如金融、医疗、教育、智能制造
prompt eval count: 10 token(s)
prompt eval duration: 2.409355401992798s
prompt eval rate: 4.150487716228547 tokens/s
eval count: 300 token(s)
eval duration: 66.46189308166504s
eval rate: 4.513864804172446 tokens/s

附录A:自己转换gguf,然后进行量化的尝试步骤

a.使用llamacpp进行转换https://github.com/ggml-org/llama.cpp/blob/master/examples/quantize/README.md

b.转换满血671B的R1权重失败,即llamacpp不支持满血R1的GGUF转换,所以也没法执行后续的量化步骤,建议直接拉取huggingface上量化好的模型

(llamacpp) [root@localhost llama.cpp]# python3 convert_hf_to_gguf.py /usr/share/ollama/DeepSeek-R1 --outfile /usr/share/ollama/zxy/r1_gguf --outtype bf16
INFO:hf-to-gguf:Loading model: DeepSeek-R1
INFO:gguf.gguf_writer:gguf: This GGUF file is for Little Endian only
INFO:hf-to-gguf:Exporting model…
INFO:hf-to-gguf:gguf: loading model weight map from ‘model.safetensors.index.json’
INFO:hf-to-gguf:gguf: loading model part ‘model-00001-of-000163.safetensors’
INFO:hf-to-gguf:token_embd.weight, torch.bfloat16 --> BF16, shape = {7168, 129280}
INFO:hf-to-gguf:blk.0.attn_norm.weight, torch.bfloat16 --> F32, shape = {7168}
INFO:hf-to-gguf:blk.0.ffn_down.weight, torch.float8_e4m3fn --> BF16, shape = {18432, 7168}
Traceback (most recent call last):
File “/root/llama.cpp/convert_hf_to_gguf.py”, line 5112, in
main()
File “/root/llama.cpp/convert_hf_to_gguf.py”, line 5106, in main
model_instance.write()
File “/root/llama.cpp/convert_hf_to_gguf.py”, line 439, in write
self.prepare_tensors()
File “/root/llama.cpp/convert_hf_to_gguf.py”, line 4142, in prepare_tensors
super().prepare_tensors()
File “/root/llama.cpp/convert_hf_to_gguf.py”, line 298, in prepare_tensors
for new_name, data_torch in (self.modify_tensors(data_torch, name, bid)):
File “/root/llama.cpp/convert_hf_to_gguf.py”, line 4139, in modify_tensors
return [(self.map_tensor_name(name), data_torch)]
File “/root/llama.cpp/convert_hf_to_gguf.py”, line 214, in map_tensor_name
raise ValueError(f"Can not map tensor {name!r}")
ValueError: Can not map tensor ‘model.layers.0.mlp.down_proj.weight_scale_inv’

c.llamacpp转换qwen2_7B为gguf是成功的。

INFO:gguf.vocab:Adding 151387 merge(s).
INFO:gguf.vocab:Setting special token type eos to 151645
INFO:gguf.vocab:Setting special token type pad to 151643
INFO:gguf.vocab:Setting special token type bos to 151643
INFO:gguf.vocab:Setting chat_template to {% for message in messages %}{% if loop.first and messages[0][‘role’] != ‘system’ %}{{ ‘<|im_start|>system
You are a helpful assistant.<|im_end|>
’ }}{% endif %}{{’<|im_start|>’ + message[‘role’] + ’
’ + message[‘content’] + ‘<|im_end|>’ + ’
'}}{% endfor %}{% if add_generation_prompt %}{{ '<|im_start|>assistant
’ }}{% endif %}
INFO:hf-to-gguf:Set model quantization version
INFO:gguf.gguf_writer:Writing the following files:
INFO:gguf.gguf_writer:/data/share/qwen2_7B_ins_gguf: n_tensors = 339, total_size = 15.2G
Writing: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 15.2G/15.2G [04:08<00:00, 61.4Mbyte/s]
INFO:hf-to-gguf:Model successfully exported to /data/share/qwen2_7B_ins_gguf

d.使用昇腾的量化代码,是可以转换r1的权重的

(vllm) [root@localhost NPU_inference]# python fp8_cast_bf16.py --input-fp8-hf-path /usr/share/ollama/DeepSeek-R1 --output-bf16-hf-path /usr/share/ollama/DeepSeek-R1-bf16
9%|███████████████▌ | 15/163 [03:37<31:49, 12.91s/it]

e.unsloth提供一个转成gguf的工具,感兴趣可以尝试

https://docs.unsloth.ai/basics/running-and-saving-models/saving-to-gguf

结论:

KTransformers是为个人准备的;企业级环境需要根据并发数和具体场景确定推理服务器的配置。

那么,如何系统的去学习大模型LLM?

作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
在这里插入图片描述

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
在这里插入图片描述
在这里插入图片描述

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
在这里插入图片描述

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
在这里插入图片描述

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
在这里插入图片描述

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

### 麒麟 DeepSeek 离线本地部署实战教程 #### 一、环境准备 为了确保 DeepSeek 可以稳定运行,建议根据实际需求选择合适的硬件配置。对于较为复杂的模型运算,推荐如下硬件条件: - **CPU**:英特尔酷睿 i7 或者 AMD 锐龙 7 系列以上处理器可以提供更好的性能支持[^3]。 - **GPU**:NVIDIA RTX 30系列及以上显卡能够显著提升处理速度和效率,尤其是针对大规模数据集或复杂算法场景下的应用。 - **内存**:最低16GB RAM;然而,拥有32GB乃至更大容量的RAM将会极大改善用户体验并减少潜在瓶颈。 - **存储**:需预留至少50GB可用磁盘空间用于存放模型及相关资源文件。 #### 二、软件依赖项安装 在正式开始之前,还需确认操作系统内已正确设置了必要的开发工具链以及库函数集合。具体操作步骤如下所示: 1. 更新现有包管理器索引至最新状态; 2. 安装 Python 解释器及其配套组件(pip),版本号应不低于Python 3.8; 3. 利用 pip 工具依次下载指定列表中的第三方模块,如 NumPy, Pandas 和 PyTorch 等机器学习框架。 ```bash sudo apt update && sudo apt upgrade -y sudo apt install python3-pip -y pip3 install numpy pandas torch torchvision torchaudio --upgrade ``` #### 三、获取预训练模型 鉴于网络连接状况可能存在不确定性,在此提倡预先准备好所需的一切外部依赖——特别是大型预训练模型本身。可以通过官方渠道或者其他可信来源安全地传输这些资料到目标设备上。 假设已经获得了 `deepseek_r1.pth` 文件,则将其放置于项目根目录下以便后续加载使用。 #### 四、执行离线初始化脚本 创建一个新的 Python 脚本来完成整个流程自动化工作流的设计与实现。该程序负责读取本地存在的权重参数,并据此重建神经网络结构体实例化对象供预测服务调用。 ```python import os from transformers import AutoModelForCausalLM, AutoTokenizer def load_model(model_path='deepseek_r1.pth'): tokenizer = AutoTokenizer.from_pretrained('path/to/tokenizer') model_config = { "hidden_size": 4096, "num_hidden_layers": 32, "num_attention_heads": 32, "intermediate_size": 16384, "max_position_embeddings": 2048, "type_vocab_size": 2, "initializer_range": 0.02, "layer_norm_eps": 1e-12, "model_type": "alpaca", "pad_token_id": 0, "bos_token_id": 1, "eos_token_id": 2, "sep_token_id": 3, "mask_token_id": 4, "vocab_size": 32000 } model = AutoModelForCausalLM.from_pretrained(pretrained_model_name_or_path=None, config=model_config) state_dict = torch.load(os.path.join('.', model_path)) model.load_state_dict(state_dict) return model.eval(), tokenizer if __name__ == '__main__': model, tokenizer = load_model() print("Model loaded successfully.") ``` 上述代码片段展示了如何利用 Hugging Face Transformers 库来构建自定义架构并导入保存下来的 checkpoint 数据。注意这里假定了存在一个名为 'tokenizer' 的子文件夹用来容纳分词器资产。 通过这种方式可以在完全断网的情况下顺利完成 DeepSeek R1 版本的一次性设置过程,从而开启高效便捷的人工智能辅助创作之旅。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值