告别网络繁忙!手把手教你用Ollama和Cherry Studio本地运行DeepSeek,解锁流畅AI对话

步骤1:获取Ollama部署工具

  1. 访问官网
    打开浏览器,输入 Ollama官网https://ollama.com/),进入下载页面‌。

  1. 选择系统版本
    根据本地设备操作系统(Windows/macOS/Linux)选择对应安装包,点击“Download”按钮‌。
  2. 安装与验证
    • Windows:双击安装包,按提示完成操作,完成后在命令行(cmd或者powershell)输入 ollama --version 检查版本号‌。
    • macOS/Linux:解压后运行终端命令 ./ollama serve,显示“Listening on 127.0.0.1:11434”即安装成功‌。

步骤2:获取DeepSeek模型文件

  1. 模型选择建议
    • 模型有以下几种可选,比如我本机32G内存,16G独立显卡,选择8b运行较为流畅,14b以上就有明显的卡顿。大家可以自行测试,选择最合适的模型。
  2. 一键下载模型
    打开终端/命令行,输入指令(根据选择的模型调整命令):

    ollama run deepseek-r1:14b

    • 下载进度会实时显示,完成后提示“Model loaded successfully”‌。
    • 验证命令:输入测试问题 比如“你是谁”,观察界面输出内容。

步骤3:部署Cherry Studio交互界面

  1. 下载客户端
    访问 Cherry Studio官网,点击“Download”获取安装包(支持Windows/macOS)‌。
  2. 安装注意事项
    • 安装路径避免中文或特殊字符
    • 一步步点击安装即可,安装完成界面如下。

步骤4:配置DeepSeek对话服务

  1. 连接本地模型
    • 打开Cherry Studio,点击左下角进入“模型设置”页
    • 在“模型路径”栏输入:http://localhost:11434(Ollama默认端口)‌,并点击管理按钮,在下图中点击加号把模型添加进来。
  2. 加载DeepSeek模型
    • 添加完成后,关闭弹窗,切换到聊天对话界面,仍然输入刚才的问题,观察界面的回答。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值