Deepseek R1 本地模式构建本地知识库

目标:在windows环境,使用deepseek本地模式搭建本地知识库。

如想使用代理模式的deepseek,可以直接修改CherryStudio里的模型配置,选择在线即可。

一、安装Ollama

下载Ollama ,选择windows版本。

修改安装路径,避免C盘爆炸,可以使用命令行方式进行安装

管理员模式打开cmd,执行以下命令,即可以修改安装目录到D盘文件夹下:

OllamaSetup.exe /DIR=D:\tools\Ollama

成功安装后,桌面右下角会出现ollama的图标,可以访问地址判断是否已运行:

http://127.0.0.1:11434/

二、修改模型路径环境变量配置

如果不修改,ollama下载的大模型都会进c盘下,撑爆。

把C:\Users\admin\.ollama 整个文件夹,剪切到D:\tools\Ollama\.ollama下

修改环境变量,增加

OLLAMA_MODELS=D:\tools\Ollama\.ollama

### 使用 DeepSeek R1 构建和配置本地知识库 #### 安装 Ollama 和初始化环境 为了使用 DeepSeek R1构建本地知识库,首先需要安装 Ollama。对于 Linux 用户来说,可以通过执行特定命令来完成这一操作: ```bash curl -fsSL https://cdn.anythingllm.com/latest/installer.sh | sh ``` 这一步骤确保了所需的基础架构被正确设置[^1]。 #### 启动 DeepSeek 应用程序 一旦安装过程结束,启动应用程序是必要的下一步。通过下面的指令可以实现这一点: ```bash ./AnythingLLMDesktop/start ``` 此命令会激活 DeepSeek 的桌面版本,使用户能够进入图形界面并开始后续的操作流程[^3]。 #### 数据准备与预处理 针对要纳入的知识库的数据集,需进行一定的前期准备工作。这些工作可能涉及清理、标注以及转换成适合机器学习算法使用的格式。虽然具体细节取决于数据本身的特性,但一般而言,良好的预处理能显著提升最终系统的性能表现[^2]。 #### 上传私有知识至平台 当一切准备就绪之后,在 Cherry-Studio 提供的人机交互界面上找到用于文件传输的部分——通常是带有浅蓝色边框的区域。在此处选择想要加入到知识库中的文档或其他形式的信息资源,随后点击 "move to workspace" 按钮确认动作。这样做的效果就是将选定的内容正式引入到了由 DeepSeek 支持的工作环境中[^4]。 #### 开始利用新建立的知识库交流互动 随着上述步骤顺利完成,现在应该已经可以在不联网的情况下访问之前导入的所有资料,并且可以直接向系统提问获取相关信息的帮助和支持。整个过程确实相当简便快捷。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值