
大模型微调
文章平均质量分 72
初窺门径
失败并不可怕,可怕的是你相信这句话
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
llama-factory微调模型导出和使用
在webui页面中选择chat,模型路径:导出后模型的绝对路径。然后加载模型,稍等一会就可以对话了。2).设置最大分块的大小,建议2-5GB。1).选择微调后模型对应的。Export-->开始导出。3).选择导出设备的类型。原创 2025-02-26 13:44:08 · 2526 阅读 · 3 评论 -
llama-factory部署微调方法(wsl-Ubuntu & Windows)
llama-factory在wsl-Ubuntu和Windows上部署和微调的方法。环境搭建以及搭建过程中遇到的一些报错解决。还包括Rust和Cargo的安装和配置环境的解决原创 2025-02-21 13:41:10 · 1343 阅读 · 0 评论