docker 部署 deepseek-r1
时间: 2025-05-17 18:26:32 浏览: 35
### 使用 Docker 部署 DeepSeek-R1 模型
DeepSeek 是一种先进的大语言模型,而 Ollama 提供了一个轻量级框架来管理和运行这些大型模型。以下是关于如何通过 Docker 来部署 DeepSeek-R1 模型的具体方法。
#### 准备工作
为了成功部署 DeepSeek-R1 模型,需要完成以下准备工作:
- 确保已安装并配置好 Docker 环境[^2]。
- 下载所需的 DeepSeek-R1 模型文件以及 Embedding 模型(如果适用)。这通常可以通过官方工具 `ollama` 或者手动下载实现[^1]。
#### 创建 Dockerfile 和 Compose 文件
下面是一个简单的 Dockerfile 示例用于构建容器环境:
```Dockerfile
# 基于基础镜像
FROM ubuntu:20.04
# 更新包管理器并安装必要依赖项
RUN apt-get update && \
apt-get install -y curl git build-essential libssl-dev python3-pip && \
pip3 install --upgrade pip
# 安装 ollama 工具
RUN curl https://get.ollama.ai/install.sh | sh
# 设置工作目录
WORKDIR /app
# 将本地模型复制到容器中(可选)
COPY models/ ./models/
# 启动命令
CMD ["ollama", "run", "--model=deepseek-r1"]
```
接着编写 `docker-compose.yml` 文件以便更方便地启动服务:
```yaml
version: '3'
services:
deepseek-model:
container_name: deepseek_r1_container
image: custom-deepseek-image:latest
build:
context: .
dockerfile: Dockerfile
ports:
- "11434:11434"
volumes:
- ./models:/app/models
environment:
- MODEL_PATH=/app/models/deepseek-r1
restart: always
```
#### 构建和运行容器
执行以下命令以构建自定义镜像并启动容器:
```bash
docker-compose build
docker-compose up -d
```
上述操作会基于提供的 `docker-compose.yml` 自动拉取所需资源并初始化服务。
#### 测试部署的服务
一旦容器正常运行,可通过 API 接口测试模型的功能。例如发送 HTTP 请求至指定端点验证其可用性:
```bash
curl http://localhost:11434/v1/completions -H "Content-Type: application/json" -d '{"prompt": "Hello, world!", "max_tokens": 50}'
```
此请求将返回由 DeepSeek-R1 模型生成的文本响应。
---
### 注意事项
- 如果遇到权限问题或者网络连接失败的情况,请参照 Kubernetes Secret 的方式获取 Token 并调试相关接口[^3]。
- 对于 Redis 数据库的支持,在集群模式下需特别注意数据库编号的选择限制[^4]。
阅读全文
相关推荐


















