docker安装ollama部署deepseek
时间: 2025-06-23 15:44:08 浏览: 16
### 如何通过 Docker 安装 Ollama 并部署 DeepSeek 模型
#### 1. 准备工作
在开始之前,确保已经安装了 Docker 和 WSL(适用于 Windows 用户)。如果尚未完成这些操作,请参考相关文档进行安装和配置[^2]。
---
#### 2. 安装 Ollama
执行以下命令来安装 Ollama:
```bash
docker run -d --name ollama -p 11434:11434 ollama/ollama:latest
```
此命令会启动一个名为 `ollama` 的容器,并将其绑定到端口 `11434`。这一步完成后,可以通过浏览器访问 `http://localhost:11434` 来验证 Ollama 是否正常运行[^1]。
---
#### 3. 下载 DeepSeek 模型
根据需求选择合适的 DeepSeek 模型版本。以下是几个常见的模型及其对应的拉取命令:
- **deepseek-coder:33b-instruct**
```bash
docker exec ollama ollama pull deepseek-coder:33b-instruct
```
- **deepseek-r1:7b**
```bash
docker exec ollama ollama pull deepseek-r1:7b
```
上述命令会在后台自动下载指定的 DeepSeek 模型并存储至 Ollama 中[^3]。
---
#### 4. 配置 Open WebUI 可视化界面(可选)
为了更方便地管理和测试模型,可以部署 Open WebUI 工具。按照以下步骤操作:
1. 拉取 Open WebUI 的官方镜像:
```bash
docker pull ghcr.io/open-webui/open-webui:main
```
2. 启动 Open WebUI 容器并与 Ollama 进行连接:
```bash
docker run -it --rm \
-v /path/to/config:/app/settings \
-p 7860:7860 \
ghcr.io/open-webui/open-webui:main \
--model-api-type=ollama \
--model-api-url=http://host.docker.internal:11434
```
替换 `/path/to/config` 为你希望保存配置文件的位置。启动成功后,可通过浏览器访问 `http://localhost:7860` 查看可视化界面[^4]。
---
#### 5. 测试模型功能
打开终端或使用 Open WebUI 接口输入提示词 (Prompt),观察模型生成的结果。例如,在终端中可以直接调用如下命令:
```bash
curl http://localhost:11434/api/generate -X POST -H 'Content-Type: application/json' -d '{"prompt":"你好","max_tokens":100}'
```
该请求将返回由选定模型生成的一段文本。
---
#### 注意事项
- 如果遇到 Docker 版本过低或其他兼容性问题,请参照教程更新 Docker 或调整 WSL 设置。
- 不同硬件环境可能影响模型性能;建议优先尝试轻量级模型(如 `deepseek-r1:7b`),再逐步扩展到更大规模的变体。
---
阅读全文
相关推荐


















