最近这一两周不少公司都已经停止秋招了。
不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。
最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。
总结如下:
《大模型面试宝典》(2025版) 发布!
《AIGC 面试宝典》圈粉无数!
喜欢本文记得收藏、关注、点赞
2025年新春,科技界迎来了一则重磅消息:DeepSeek开源发布了R1版本。尽管这是一个经过蒸馏的“小模型”(相较于大模型的参数量和训练算力需求),但其表现却能与OpenAI-O1-min相媲美。
大模型的功能强大,但是高昂的部署和应用门槛依旧让普通人望而却步,如今的DeepSeek R1模型的各种蒸馏版本可以说真正让大模型“飞入寻常百姓家”了。
那么,为什么要尝试本地部署开源大模型,比如DeepSeek呢?因为使用本地模型具有诸多优势:
-
所有数据处理都在本地运行,无需上传至云端,保障隐私数据安全。
-
本地部署后,不再依赖第三方服务,节省了长期使用API的成本。
-
不受网络波动影响,确保服务的稳定性和响应速度。
-
可根据需求灵活调整模型和定制模型参数,便于后续业务扩展和个性化应用。
本地部署DeepSeek,需要使用两个工具:Ollama(作为本地模型运行工具)和ChatBox(作为本地模型运行工具)。
安装Ollama大模型平台
Ollama是一个开源的本地模型运行工具,支持多种开源模型(如 Llama、Qwen、DeepSeek 等),并且兼容 Windows、MacOS 和 Linux 系统。
「安装步骤」:
-
访问 Ollama 官网:https://ollama.com/。
-
根据您的操作系统(Windows、MacOS 或 Linux)下载对应的安装包(例如 Windows 系统下载 OllamaSetup.exe)。
- 运行安装程序,点击 INSTALL,等待安装完成。
- 安装完成后,在 Windows 的“开始”菜单中会看到一个“羊驼”图标,表示 Ollama 已成功安装。
本地部署并运行DeepSeek大模型
启动Ollama
-
点击 Windows“开始”菜单中的“羊驼”图标,启动 Ollama。
-
打开任务管理器或查看 Windows 系统右侧任务栏图标,确认 Ollama 正在运行。
打开命令行界面
Ollama 需要通过命令行来安装和运行模型。您可以打开以下任意一种命令行工具:
-
CMD:Windows 自带的命令提示符。
-
PowerShell(推荐):功能更强大,命令风格更贴近 Linux。
获取DeepSeek-R1模型安装命令
在Ollama首页选择“Models”页面,再从中选择DeepSeek。
点击进入到DeepSeek-R1模型界面,可以通过下拉框选择适合自己的R1蒸馏版本(类似于以R1模型为老师学习得到的不同年级的学生模型),其中“7b”代表模型参数量为70亿,越大的参数规模意味着安装运行更大的算力资源,从而对笔记本或服务器的性能要求越高。
选择适合的模型版本
DeepSeek-R1 提供了多个蒸馏版本,参数规模不同,对硬件的要求也不同。如何选择适合自己笔记本或个人电脑的DeepSeek-R1?可以参考下述性能需要表。根据表中需求,此次我们选择了较小的R1-7b模型。
安装并运行 DeepSeek-R1-7b
接下来在命令行中输入以下命令,下载并运行 DeepSeek-R1-7b 模型:
- 如果是第一次运行,Ollama 会自动下载模型文件,请耐心等待。
测试 DeepSeek-R1-7b
模型运行后,可以直接在命令行中与 DeepSeek 交互。例如,尝试以下命令:“请用虎扑的语言风格评价下2025年春节。” DeepSeek 会生成一段幽默风格的文字,模仿虎扑UP主的语气和风格。
安装ChatBox,接入Ollama API
为了提升与DeepSeek模型的交互体验,我们可以安装ChatBox,并通过其图形用户界面(GUI)调用Ollama的API。以下是详细步骤:
下载并安装 ChatBox
ChatBox是一款AI客户端应用和智能助手,支持众多先进的AI模型和API调用,同样可在Windows、MacOS、Linux等桌面系统上使用,难能可贵地是,ChatBox还提供IOS与Android等移动端和网页端使用。
下载步骤:
-
访问 ChatBox 的官方网站:https://chatboxai.app/zh#download。
-
根据您的操作系统(Windows、MacOS、Linux)选择对应的安装包下载。
-
运行安装程序,按照提示完成安装。
启动ChatBox并配置Ollama API
安装完成后,打开ChatBox,在Setting中选择Ollama-API,并在相应的模型中选择DeepSeek。如果没有可用的模型,需要根据自己的操作系统进行相应的本地配置。配置完成后保存即可在新对话中与DeepSeek进行对话啦!
其中,
「MacOS配置」
- 打开命令行终端,输入以下命令:
launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"
- 重启Ollama应用,使配置生效。
「Windows配置」
在Windows上,Ollama会继承用户和系统环境变量。
-
通过任务栏退出Ollama应用。
-
打开系统设置或控制面板,搜索“环境变量”
-
编辑用户环境的环境变量,创建新变量OLLAMA_HOST和OLLAMA_ORIGINS,值分别为0.0.0.0和*
-
点击**「确定/应用」**以保存设置。
-
从Windows开始菜单启动Ollama应用。