前言
接上文,继我们完成了deepseek的本地化部署、和私服化之后,我们继续来探究一下如何更好的使用它。
虽然我们在私服化文章中已经介绍了一种借助web 插件–page
assist的使用方式,这里,我们将继续探索和学习deepseek本地化后的另一种使用方式
。
一、AI集成工具-Cherry studio的安装
CherryStudio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。 CherryStudio的高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 CherryStudio 中找到适合自己的AI功能,提升工作效率和创造力。
- Cherry studio官网:https://docs.cherry-ai.com/
- Cherry studio的安装教程:https://docs.cherry-ai.com/pre-basic/installation
二、Cherry studio关于本地deepseek模型的配置
这里,笔者假设读者已经完成了上述cherry studio应用的安装操作。
2.1 验证ollama是否正常运行
-
通过浏览器窗口直接访问:http://127.0.0.1:11434/
-
通过terminal窗口curl的方式验证
C:\Users\Admin>curl http://localhost:11434
Ollama is running
2.2 配置ollama
- 点击cherry studio左右下角齿轮状配置项
- 选择模型服务
- 在列表中找到ollama
- 开启ollama应用
- 配置api地址,本地为:http://localhost:11434(若笔者改用了端口,以实际端口为准)
2.3 应用示例
完成以上配置后,我们可以回到cherry studio的对话窗口,验证一下了。若是读者已经配置了其他模型,在第二步中可以看到除了ollama安装的本地deepseek模型外的其他选择。
-
点击对话框
-
点击选择模型
-
选择ollama安装的deepseek-r1:7b模型
-
对话示例: