1、名词概念及背景
当前,大模型应用中最常采用的是NVIDIA的算力显卡。
在运用显卡的过程中,大模型会在三个场景下消耗算力,分别是:通过预训练(Pre-training)构建基座模型以获得通用能力、借助微调(Fine-Tuning)在基座模型基础上实现专业能力、以及通过推理(Inference)推动模型应用落地。
为了针对不同量级的大模型训练或推理选择适配的算力显卡,下文将从显卡的显存与算力资源角度展开分析,并提供相关指标的量化方法及选型建议。
而在计算算力之前,需要先了解大模型的参数量、大模型中的token以及精度相关知识。
大模型参数量:
神经网络的权重或偏置项,如gpt-3.5-turbo的参数量在7B即70亿参数
token:
文本中最小的语义单元,经过tokenization(标记化)获得 1 token ≈ 0.75 英文单词 ≈ 1.x 汉字
计算精度差异:
fp32精度下,单个参数需占用32比特(即4字节);fp16精度下,单个参数需占用16比特(即2字节)。
bp16精度同样是单个参数占用16比特(2字节),但具有更高的数值范围,其数值范围与fp32精度相同;int8精度下,单个参数仅需占用8比特(1字节)。
通常所说的显存有多少G或M,指的是其包含多少G或M个字节(byte)。由于1字节等于8比特(bit),因此在全精度(fp32)训练时,每个参数对应32比特,也就是4字节。
2、大模型显卡需求计算
选择显卡时,可依据经验公式来判断。其中,显卡的显存决定了大模型能否正常运行(避免出现OOM错误),而算力则影响模型的训练速度。通过相应公式,能够预估所需的资源量,进而确定合适的显卡类型。
显存
1. 推理
显存(推理)= 模型大小 × 1.2 = 模型参数量 × 每参数精度位数 × 1.2
显存(推理)= 模型大小 × 1.2 = (模型参数量 × 精度位数 ÷ 8)× 1.2
推理时的显存由两部分构成:模型参数和模型中间计算结果。
2. 训练
显存(训练)≈ 10 × 显存(推理)
训练时的显存由四部分构成:模型参数、模型梯度、模型中间计算结果和优化器。
3. 举例
若要计算正常推理时的显存占用,可运用上述公式。以llama 7b模型在fp16位半精度下的计算为例:
推理显存 = 1.2 × 2(fp16精度)× 6×10⁹(参数)÷ 1024³ = 15.65GB
训练显存 = 15.65 × 10 = 156.5GB
算力
1. 训练
计算量C(训练)≈ 6 × P(模型参数量)× D(数据集大小)
T = C ÷ (MFU × S)
2. 推理
计算量C(推理)≈ 2 × P(模型参数量)× D(数据集大小)
注:
- C:训练一个Transformer模型所需的算力,单位为FLOPs
- P:Transformer模型中的参数数量
- D:训练数据集的规模,即用于训练的token数量
- MFU:算力利用率,通用集群的利用率通常在0.3−0.55之间
- S:训练模型所用集群的算力,等于显卡数量乘以单张显卡的算力
3. 举例:
若要计算训练时间,可依据上述公式。例如:
Llama 2-7B模型的训练,根据官方公布,该模型使用了2万亿个token进行训练,且训练精度为FP16。
计算量C(训练)= 6 × 70亿参数 × (2×10¹²) tokens = 8.4×10⁷ PFLOPs
A100单卡的训练耗时T = 计算量C(训练)÷ 单卡算力(每秒运算次数)÷ 利用率 = 8.4×10⁷ PFLOPs ÷ 单卡算力(0.6 PFLOPS)÷ 3600秒 ÷ 24小时 ÷ 1 = 1620天(约4年多)
若使用10张A100显卡,训练耗时T = 计算量C(训练)÷ 单卡算力(0.6 PFLOPS)÷ 3600秒 ÷ 24小时 ÷ (0.55 × 10卡) = 535.5天(约1.5年)
其中A100的相关指标如图所示:
3、 需求计算的结论
1.模型能够训练或者推理不出现OOM最直接的方式可使用文中公式可以简单计算出需要的显存。
2.模型训练时间加快最直接的方式是用多机多卡缩短时间,可以根据文中公式计算出需要的时间。
3.随着使用框架的优化(deepspeed、megatron等),可以把更多的计算优化从GPU中释放,让更多的cpu和内存参与,把对应的GPU使用率提高。
那么,如何系统的去学习大模型LLM?
作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。
所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。
由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~
👉大模型学习指南+路线汇总👈
我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。
👉①.基础篇👈
基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。
👉②.进阶篇👈
接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。
👉③.实战篇👈
实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。
👉④.福利篇👈
最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!