闻达项目安装与使用教程
wenda 项目地址: https://gitcode.com/gh_mirrors/wen/wenda
1. 项目目录结构及介绍
闻达项目是一个面向特定环境的高效内容生成平台,它考虑到了个人和中小企业的计算资源局限性,以及知识安全和私密性问题。以下是项目的目录结构及各个部分的简要介绍:
wenda-LLM/
├── .github/ # GitHub工作流和配置文件
├── autos/ # 存放Auto脚本,为平台附加各种自动化功能
├── docs/ # 项目文档
├── imgs/ # 项目图片资源
├── llms/ # 存放不同的大语言模型
├── plugins/ # 存放插件和工具
├── requirements/ # 项目依赖库文件
├── views/ # 视图和界面相关文件
├── .gitattributes # Git属性配置文件
├── .gitignore # Git忽略文件配置
├── README-en.md # 英文项目介绍
├── README.md # 中文项目介绍
├── cov_ggml_rwkv.bat # RWKV模型量化批处理文件
├── cov_torch_rwkv.bat # RWKV模型量化批处理文件
├── cuda.bat # CUDA安装批处理文件
├── down_hf.bat # 从Hugging Face下载数模批处理文件
├── environment.bat # 环境配置批处理文件
├── example.config.yml # 配置文件示例
├── licence # 项目许可证文件
├── run_GLM6B.bat # 启动GLM6B模型的批处理文件
├── run_GLM6B.sh # 启动GLM6B模型的脚本文件
├── run_aquila.bat # 启动Aquila模型的批处理文件
├── run_baichuan.bat # 启动Baichuan模型的批处理文件
├── run_chatglm.sh # 启动chatGLM模型的脚本文件
├── run_chatglm130b_api.bat # 启动chatGLM-130b API的批处理文件
├── run_gpt4free.bat # 启动GPT-4免费版的批处理文件
├── run_hf-cli.bat # 启动Hugging Face CLI的批处理文件
├── run_internlm.bat # 启动InternLM模型的批处理文件
├── run_llama.bat # 启动llama模型的批处理文件
├── run_llama.sh # 启动llama模型的脚本文件
├── run_moss.sh # 启动Moss模型的脚本文件
├── run_openaiapi.bat # 启动OpenAI API的批处理文件
├── run_pip.bat # 安装Python包的批处理文件
├── run_qwen.bat # 启动Qwen模型的批处理文件
├── run_replitcode.bat # 启动Replit Code的批处理文件
├── run_rwkv.bat # 启动RWKV模型的批处理文件
├── run_rwkv.sh # 启动RWKV模型的脚本文件
├── run_rwkv_with_vc.bat # 启动RWKV模型(CUDA加速)的批处理文件
├── run_transformers.bat # 启动Transformers的批处理文件
├── wenda.py # 项目主Python脚本文件
2. 项目的启动文件介绍
项目的启动文件主要是指各种模型的启动批处理文件和脚本文件,例如:
run_GLM6B.bat
:启动GLM6B模型的批处理文件。run_rwkv.bat
:启动RWKV模型的批处理文件。run_llama.sh
:启动llama模型的脚本文件。
这些启动文件包含了启动相应模型所需的命令和参数配置,用户可以根据自己的需要选择相应的启动文件来运行项目。
3. 项目的配置文件介绍
项目的配置文件是config.yml
,它是项目的核心配置文件,包含了项目运行所需的各项参数设置。以下是配置文件的一些基本配置项:
model
:指定使用的模型及其路径。knowledge_engine
:配置知识库引擎,如本地搜索引擎或在线搜索引擎。auto
:配置Auto脚本的相关参数。rtst
:配置RTST(Real-Time Semantic Search Technology)模式的参数。fess
:配置FESS(Flexible Embedded Search System)模式的参数。
用户需要根据自己的实际环境和需求来修改这些配置项,确保项目能够正确运行。在开始之前,建议仔细阅读example.config.yml
文件,了解每个配置项的作用和默认值。
wenda 项目地址: https://gitcode.com/gh_mirrors/wen/wenda