
AI
文章平均质量分 83
zxfBdd
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
DeepSeek模型优化技巧深度解析:超参数调优、正则化等方法
DeepSeek模型优化技巧深度解析:超参数调优、正则化等方法转载 2025-08-04 11:15:07 · 0 阅读 · 0 评论 -
机器学习中核心评估指标(准确率、精确率、召回率、F1分数)
机器学习中核心评估指标(准确率、精确率、召回率、F1分数)转载 2025-08-03 12:06:24 · 21 阅读 · 0 评论 -
准确率、精确率、召回率、F1-score
准确率、精确率、召回率、F1-score转载 2025-07-30 11:54:28 · 59 阅读 · 0 评论 -
python机器学习模型pkl和pmml文件的保存加载使用
python机器学习模型pkl和pmml文件的保存加载使用转载 2025-07-29 15:18:26 · 65 阅读 · 0 评论 -
python数据处理方法——pkl格式文件
python数据处理方法——pkl格式文件转载 2025-07-29 15:15:45 · 119 阅读 · 0 评论 -
DeepSeek-R1-Distill-Qwen-32B 不输出“<think>\n“解决方法
DeepSeek-R1-Distill-Qwen-32B 不输出"<think>\n"解决方法转载 2025-07-18 17:07:13 · 281 阅读 · 0 评论 -
关于关闭deepseek r1思考过程实践
关于关闭deepseek r1思考过程实践转载 2025-07-18 16:26:26 · 263 阅读 · 0 评论 -
DeepSeek输出<Think>丢失
DeepSeek输出<Think>丢失转载 2025-07-08 12:00:16 · 338 阅读 · 0 评论 -
手动将ModelScope的模型下载到本地
手动将ModelScope的模型下载到本地转载 2025-06-13 15:49:53 · 445 阅读 · 0 评论 -
SGLang、Ollama、vLLM和LLaMA.cpp推理框架的对比及选型建议
SGLang、Ollama、vLLM和LLaMA.cpp推理框架的对比及选型建议转载 2025-05-28 22:48:03 · 280 阅读 · 0 评论 -
学习笔记:主流大模型框架对比分析(Ollama、vLLM、SGlang、TensorRT-LLM等)
学习笔记:主流大模型框架对比分析(Ollama、vLLM、SGlang、TensorRT-LLM等)转载 2025-05-28 22:45:40 · 615 阅读 · 0 评论 -
graphRAG+ollama离线环境本地化部署
graphRAG+ollama离线环境本地化部署转载 2025-05-27 16:45:33 · 224 阅读 · 0 评论 -
模型微调 vs. RAG:AI技术如何选择?一文读懂两者的区别与应用场景
模型微调 vs. RAG:AI技术如何选择?一文读懂两者的区别与应用场景转载 2025-05-26 16:20:42 · 208 阅读 · 0 评论 -
DeepSeek本地RAG应用
DeepSeek本地RAG应用转载 2025-05-22 17:05:12 · 83 阅读 · 0 评论 -
Deepseek R1 + RAG知识库本地部署——8G内存不会编程也轻松搞定
Deepseek R1 + RAG知识库本地部署——8G内存不会编程也轻松搞定转载 2025-05-16 00:40:57 · 151 阅读 · 0 评论 -
使用 DeepSeek R1 和 Ollama 开发 RAG 系统
使用 DeepSeek R1 和 Ollama 开发 RAG 系统转载 2025-05-16 00:38:46 · 138 阅读 · 0 评论 -
graphrag api调用
graphrag api调用转载 2025-05-16 00:16:02 · 201 阅读 · 0 评论 -
阿里的QwQ-32B部署,需要选择什么样的服务器配置?
阿里的QwQ-32B部署,需要选择什么样的服务器配置?转载 2025-05-08 14:19:22 · 481 阅读 · 0 评论 -
vLLM 部署DeepSeek-R1
vLLM 部署DeepSeek-R1转载 2025-05-01 09:57:23 · 149 阅读 · 0 评论 -
DeepSeek-R1私有化部署——使用Python实现DeepSeek-R1-Distill-Qwen模型部署调用与流式输出
DeepSeek-R1私有化部署——使用Python实现DeepSeek-R1-Distill-Qwen模型部署调用与流式输出转载 2025-04-29 17:27:24 · 135 阅读 · 0 评论 -
DeepSeek V3、DeepSeek R1 、 DeepSeekLLM版本区别
DeepSeek V3、DeepSeek R1 、 DeepSeekLLM版本区别转载 2025-04-17 15:07:26 · 326 阅读 · 0 评论 -
ollama与vllm的区别
ollama与vllm的区别转载 2025-04-15 11:53:33 · 163 阅读 · 0 评论 -
ollama: /usr/lib64/libstdc++.so.6: version `GLIBCXX_3.4.25‘ not found (required by ollama)
ollama: /usr/lib64/libstdc++.so.6: version `GLIBCXX_3.4.25‘ not found (required by ollama)转载 2025-04-11 15:16:53 · 394 阅读 · 0 评论 -
深度求索的力量:在Ollama框架中本地部署DeepSeek-R1
深度求索的力量:在Ollama框架中本地部署DeepSeek-R1AI转载 2025-04-10 15:26:16 · 67 阅读 · 0 评论 -
RagFlow本地部署使用
RagFlow本地部署使用转载 2025-04-02 10:34:35 · 143 阅读 · 0 评论 -
DeepSeek线上调用和本地部署
DeepSeek线上调用和本地部署转载 2025-04-02 10:08:59 · 107 阅读 · 0 评论