使用Ollama部署deepseek大模型
前置条件
使用英伟达显卡下载cuda驱动
https://developer.nvidia.com/cuda-downloads
Ollama
Ollama 官方版: https://ollama.com/
我的显卡在Windows电脑上面 所以使用Windows的安装方式去安装
若你的显卡是在Linux上面 可以使用如下命令安装
curl -fsSL https://ollama.com/install.sh | sh
当然Ollama不只是可以启动deepseek模型,也可以启动他的模型
https://ollama.com/search
# 模型的安装命令
# 1.5B Qwen DeepSeek R1
# 所需空间大约 1.1G
ollama run deepseek-r1:1.5b
# 7B Qwen DeepSeek R1
# 所需空间大约 4.7G
ollama run deepseek-r1:7b
# 8B Llama DeepSeek R1
# 所需空间大约 4.9G
ollama run deepseek-r1:8b
# 14B Qwen DeepSeek R1
# 所需空间大约 9G
ollama run deepseek-r1:14b
# 32B Qwen DeepSeek R1
# 所需空间大约 20G
ollama run deepseek-r1:32b
# 70B Llama DeepSeek R1
# 所需空间大约 43G
ollama run deepseek-r1:70b
# 671B Llama DeepSeek R1
# 所需空间大约 404G
oll