闻达项目安装与使用教程

闻达项目安装与使用教程

wenda wenda 项目地址: https://gitcode.com/gh_mirrors/wen/wenda

1. 项目目录结构及介绍

闻达项目是一个面向特定环境的高效内容生成平台,它考虑到了个人和中小企业的计算资源局限性,以及知识安全和私密性问题。以下是项目的目录结构及各个部分的简要介绍:

wenda-LLM/
├── .github/             # GitHub工作流和配置文件
├── autos/               # 存放Auto脚本,为平台附加各种自动化功能
├── docs/                # 项目文档
├── imgs/                # 项目图片资源
├── llms/                # 存放不同的大语言模型
├── plugins/             # 存放插件和工具
├── requirements/        # 项目依赖库文件
├── views/               # 视图和界面相关文件
├── .gitattributes        # Git属性配置文件
├── .gitignore           # Git忽略文件配置
├── README-en.md         # 英文项目介绍
├── README.md            # 中文项目介绍
├── cov_ggml_rwkv.bat    # RWKV模型量化批处理文件
├── cov_torch_rwkv.bat   # RWKV模型量化批处理文件
├── cuda.bat             # CUDA安装批处理文件
├── down_hf.bat          # 从Hugging Face下载数模批处理文件
├── environment.bat      # 环境配置批处理文件
├── example.config.yml   # 配置文件示例
├── licence              # 项目许可证文件
├── run_GLM6B.bat        # 启动GLM6B模型的批处理文件
├── run_GLM6B.sh         # 启动GLM6B模型的脚本文件
├── run_aquila.bat        # 启动Aquila模型的批处理文件
├── run_baichuan.bat      # 启动Baichuan模型的批处理文件
├── run_chatglm.sh        # 启动chatGLM模型的脚本文件
├── run_chatglm130b_api.bat # 启动chatGLM-130b API的批处理文件
├── run_gpt4free.bat      # 启动GPT-4免费版的批处理文件
├── run_hf-cli.bat        # 启动Hugging Face CLI的批处理文件
├── run_internlm.bat      # 启动InternLM模型的批处理文件
├── run_llama.bat         # 启动llama模型的批处理文件
├── run_llama.sh          # 启动llama模型的脚本文件
├── run_moss.sh           # 启动Moss模型的脚本文件
├── run_openaiapi.bat     # 启动OpenAI API的批处理文件
├── run_pip.bat           # 安装Python包的批处理文件
├── run_qwen.bat          # 启动Qwen模型的批处理文件
├── run_replitcode.bat    # 启动Replit Code的批处理文件
├── run_rwkv.bat          # 启动RWKV模型的批处理文件
├── run_rwkv.sh           # 启动RWKV模型的脚本文件
├── run_rwkv_with_vc.bat  # 启动RWKV模型(CUDA加速)的批处理文件
├── run_transformers.bat  # 启动Transformers的批处理文件
├── wenda.py              # 项目主Python脚本文件

2. 项目的启动文件介绍

项目的启动文件主要是指各种模型的启动批处理文件和脚本文件,例如:

  • run_GLM6B.bat:启动GLM6B模型的批处理文件。
  • run_rwkv.bat:启动RWKV模型的批处理文件。
  • run_llama.sh:启动llama模型的脚本文件。

这些启动文件包含了启动相应模型所需的命令和参数配置,用户可以根据自己的需要选择相应的启动文件来运行项目。

3. 项目的配置文件介绍

项目的配置文件是config.yml,它是项目的核心配置文件,包含了项目运行所需的各项参数设置。以下是配置文件的一些基本配置项:

  • model:指定使用的模型及其路径。
  • knowledge_engine:配置知识库引擎,如本地搜索引擎或在线搜索引擎。
  • auto:配置Auto脚本的相关参数。
  • rtst:配置RTST(Real-Time Semantic Search Technology)模式的参数。
  • fess:配置FESS(Flexible Embedded Search System)模式的参数。

用户需要根据自己的实际环境和需求来修改这些配置项,确保项目能够正确运行。在开始之前,建议仔细阅读example.config.yml文件,了解每个配置项的作用和默认值。

wenda wenda 项目地址: https://gitcode.com/gh_mirrors/wen/wenda

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

余怡桔Solomon

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值