轻松搞定啦,本地化部署DeepSeek R1 大模型

最近这一两周不少公司都已经停止秋招了。

不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。

最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。

总结如下:

《大模型面试宝典》(2025版) 发布!
《AIGC 面试宝典》圈粉无数!

喜欢本文记得收藏、关注、点赞


2025年新春,科技界迎来了一则重磅消息:DeepSeek开源发布了R1版本。尽管这是一个经过蒸馏的“小模型”(相较于大模型的参数量和训练算力需求),但其表现却能与OpenAI-O1-min相媲美。

大模型的功能强大,但是高昂的部署和应用门槛依旧让普通人望而却步,如今的DeepSeek R1模型的各种蒸馏版本可以说真正让大模型“飞入寻常百姓家”了。

那么,为什么要尝试本地部署开源大模型,比如DeepSeek呢?因为使用本地模型具有诸多优势:

  1. 所有数据处理都在本地运行,无需上传至云端,保障隐私数据安全。

  2. 本地部署后,不再依赖第三方服务,节省了长期使用API的成本。

  3. 不受网络波动影响,确保服务的稳定性和响应速度。

  4. 可根据需求灵活调整模型和定制模型参数,便于后续业务扩展和个性化应用。

本地部署DeepSeek,需要使用两个工具:Ollama(作为本地模型运行工具)和ChatBox(作为本地模型运行工具)。

安装Ollama大模型平台

Ollama是一个开源的本地模型运行工具,支持多种开源模型(如 Llama、Qwen、DeepSeek 等),并且兼容 Windows、MacOS 和 Linux 系统。

「安装步骤」

  1. 访问 Ollama 官网:https://ollama.com/。

  2. 根据您的操作系统(Windows、MacOS 或 Linux)下载对应的安装包(例如 Windows 系统下载 OllamaSetup.exe)。

图片

  1. 运行安装程序,点击 INSTALL,等待安装完成。

图片

  1. 安装完成后,在 Windows 的“开始”菜单中会看到一个“羊驼”图标,表示 Ollama 已成功安装。

图片

本地部署并运行DeepSeek大模型

启动Ollama

  1. 点击 Windows“开始”菜单中的“羊驼”图标,启动 Ollama。

  2. 打开任务管理器或查看 Windows 系统右侧任务栏图标,确认 Ollama 正在运行。

打开命令行界面

Ollama 需要通过命令行来安装和运行模型。您可以打开以下任意一种命令行工具:

  • CMD:Windows 自带的命令提示符。

  • PowerShell(推荐):功能更强大,命令风格更贴近 Linux。

获取DeepSeek-R1模型安装命令

在Ollama首页选择“Models”页面,再从中选择DeepSeek。

图片

点击进入到DeepSeek-R1模型界面,可以通过下拉框选择适合自己的R1蒸馏版本(类似于以R1模型为老师学习得到的不同年级的学生模型),其中“7b”代表模型参数量为70亿,越大的参数规模意味着安装运行更大的算力资源,从而对笔记本或服务器的性能要求越高。

图片

选择适合的模型版本

DeepSeek-R1 提供了多个蒸馏版本,参数规模不同,对硬件的要求也不同。如何选择适合自己笔记本或个人电脑的DeepSeek-R1?可以参考下述性能需要表。根据表中需求,此次我们选择了较小的R1-7b模型。

图片

安装并运行 DeepSeek-R1-7b

接下来在命令行中输入以下命令,下载并运行 DeepSeek-R1-7b 模型:

图片

  • 如果是第一次运行,Ollama 会自动下载模型文件,请耐心等待。

测试 DeepSeek-R1-7b

模型运行后,可以直接在命令行中与 DeepSeek 交互。例如,尝试以下命令:“请用虎扑的语言风格评价下2025年春节。” DeepSeek 会生成一段幽默风格的文字,模仿虎扑UP主的语气和风格。

图片

安装ChatBox,接入Ollama API

为了提升与DeepSeek模型的交互体验,我们可以安装ChatBox,并通过其图形用户界面(GUI)调用Ollama的API。以下是详细步骤:

下载并安装 ChatBox

ChatBox是一款AI客户端应用和智能助手,支持众多先进的AI模型和API调用,同样可在Windows、MacOS、Linux等桌面系统上使用,难能可贵地是,ChatBox还提供IOS与Android等移动端和网页端使用。

下载步骤:

  1. 访问 ChatBox 的官方网站:https://chatboxai.app/zh#download。

  2. 根据您的操作系统(Windows、MacOS、Linux)选择对应的安装包下载。

  3. 运行安装程序,按照提示完成安装。

启动ChatBox并配置Ollama API

安装完成后,打开ChatBox,在Setting中选择Ollama-API,并在相应的模型中选择DeepSeek。如果没有可用的模型,需要根据自己的操作系统进行相应的本地配置。配置完成后保存即可在新对话中与DeepSeek进行对话啦!

图片

其中,

「MacOS配置」

  1. 打开命令行终端,输入以下命令:
launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"
  1. 重启Ollama应用,使配置生效。

「Windows配置」

在Windows上,Ollama会继承用户和系统环境变量。

  1. 通过任务栏退出Ollama应用。

  2. 打开系统设置或控制面板,搜索“环境变量”

  3. 编辑用户环境的环境变量,创建新变量OLLAMA_HOST和OLLAMA_ORIGINS,值分别为0.0.0.0和*

  4. 点击**「确定/应用」**以保存设置。

  5. 从Windows开始菜单启动Ollama应用。

图片

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值