Win+安装Ollama+本地Deepseek-R1+Cherrystudio使用

0. 前言

       本文主要介绍 win 本地安装 Ollama ,本地部署 Ollama 的 deepseek-r1:7b 大模型,使用具有界面画操作的工具 Cherrystudio进行操作。文章内容仅供参考。

1. Ollama简介

‌       ‌Ollama 是一个开源的框架,旨在本地运行大型语言模型(LLM)。它提供了一个简洁且用户友好的命令行界面,使得用户可以轻松部署和管理各种开源的大型语言模型‌。

2. Ollama的下载

     进入Ollama官网主页:Ollama
 ,ollama官网提供 支持macOS, Linux 和 Windows 系统的ollama,自己可根据情况选择支持自己系统的ollama。本文以 win 系统为案例。点击下载按钮,获取 OllamaSetup.exe 安装程序。

​ 3. Ollam的安装

       双击安装文件,点击「Install」开始安装。目前的Ollama会默认安装到C盘,路径如下:C:\Users%username%\AppData\Local\Programs\Ollama,并不会让用户自定义选择安装路径。

4. 配置环境变量

       安装完成后,可以不用先启动Ollama,点击退出的按钮「Quit Ollama」,先退出做一些必要路径的配置,否则下边的环境配置无法生效!

### 关于 Cherry-Studio 的源码开发教程 Cherry-Studio 是一款类似于 OpenWeb UI 的工具,其部署方式涉及 Win+安装 Ollama+本地 Deepseek-R1+Cherrystudio 使用[^1]。对于想要深入了解并开发 Cherry-Studio 源码的开发者来说,可以从以下几个方面入手: #### 了解项目结构 首先应当熟悉 Cherry-Studio 的整体架构以及各个模块的功能划分。这有助于理解整个项目的运作机制。 #### 配置开发环境 确保拥有合适的编程语言版本和支持库。通常情况下,这类前端框架会依赖 Node.js 和 npm 或 yarn 来管理依赖项和构建过程。因此,在开始编码之前,请先确认已正确设置了这些工具。 ```bash node -v npm install ``` #### 获取源代码仓库 访问官方 GitHub 页面或其他托管平台下载最新的稳定版源码。如果计划贡献更改,则建议 fork 官方仓库到个人账户下再克隆至本地机器上操作。 #### 学习文档阅读 仔细研读 README 文件和其他相关说明文档,里面包含了重要的配置选项解释、API 接口定义等内容。这对于掌握如何自定义样式表、扩展组件等功能至关重要。 #### 实践练习编写插件或主题 尝试按照现有案例创建新的功能模块或是修改已有界面布局设计。通过实际动手可以加深对内部逻辑的理解程度,并积累宝贵的经验教训。 #### 参与社区交流互动 加入活跃的技术论坛或者聊天群组与其他爱好者分享心得体验和技术难题解决方案。这样不仅可以获得及时的帮助指导还能结识志同道合的朋友共同进步成长。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值