- 博客(3)
- 收藏
- 关注
原创 qwen3试用体验
同时问qwen3:4b和deepseek-r1:7b,两个大模型都给出了正确结果,但qwen3:4b思考速度明显太慢。问题为:电动汽车电池管理系统SOC累积误差限值标准是多少?总体来说qwen3效果应该没有官方发布说的效果那么惊艳。直接新建对话回答也不对,原因在于5.3处理有歧义。可能是小模型表格识别能力不行,换一个标准。规范原文,正确答案应该是0.5。本地知识库+小模型仍然回答错误。在线没开联网功能也回答正确。继续追问,回答定位条文错误。导入本地知识库,回答错误。光用CPU有点吃不消。
2025-04-30 16:18:00
150
原创 无需魔法,单卡4090,Ubuntu20,离线本地化部署DeepSeek-r1:32b
网络测试:curl -x http://windows物理机IP:7890 https://api.ollama.ai/v1/version。export https_proxy=http://windows物理机IP:7890。export http_proxy=http://windows物理机IP:7890。设置GPU运行:export CUDA_VISIBLE_DEVICES=0。GPU占用还可以,回答还比较快,没有并发访问的情况下。source /etc/profile使配置生效,
2025-04-28 12:58:32
287
原创 无需魔法,无GPU,windows10,本地知识库部署DeepSeek-r1:1.5b/7b试用体验
3.硬件配置:个人荣耀I7笔记本电脑选择了7b,只用了CPU,有点慢,后续安装CUDA试试,10w以内配置服务器可以实现企业级应用,linux部署成本高一些。_deepseek 企业知识库-CSDN博客。然后又安装了DeepSeek-r1:1.5b,速度很快,但是很多简单的问题都回答得不好,本地知识库还能识别多模态表格,但是问题回答错了。,注册和邀请双方都送100充值券,不充VIP也有不少免费的大模型可以用,亲测好用,强烈安利。一个更比一个强,还要啥自行车,赶紧用起来,多个大模型说的可以对比着看,哈哈。
2025-04-25 19:23:55
393
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人