
语言模型相关(LLM / NLP)
文章平均质量分 92
大语言模型相关
曾小蛙
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【LLama】Llama3 的本地部署与lora微调(基于xturn)
llama3的stremlit部署+使用xturn微甜原创 2024-05-06 18:18:43 · 5288 阅读 · 2 评论 -
【无监督+自然语言】 GPT,BERT, GPT-2,GPT-3 生成式预训练模型方法概述 (Generative Pre-Traning)
【GPT,Bert \GPT-2,GPT-3 论文概述】原创 2024-04-22 19:05:21 · 1713 阅读 · 0 评论 -
【大语言模型+Lora微调】10条对话微调Qwen-7B-Chat并进行推理 (聊天助手)
基于qwen1.0 和lora微调,训练自己的对话机器人原创 2024-04-19 10:40:52 · 5319 阅读 · 3 评论 -
【LLMs+小羊驼】23.03.Vicuna: 类似GPT4的开源聊天机器人( 90%* ChatGPT Quality)
Vicuna(音标 vɪˈkjuːnə ,小羊驼、骆马)是基于LLaMA的指令**微调**模型(类似GPT的文本生成模型)与LLaMA: 是基础大语言模型,用大量质量一般的互联网文本数据训练,与GPT3 、PaLM类似Vicuna 用ShareGPT网站的用户分享的7w条ChatGPT对话记录,对 LLaMA进行监督质量微调训练(Supervised Finturning),性能超越了LLaMa和Stanford Alpaca,达到了与ChatGPT相似的水平。将单词切分为。原创 2024-03-13 16:25:57 · 1764 阅读 · 0 评论 -
【API调用gpt-4 (vision-preview)】基于微软的Azure OpenAI API
微软的Azure页面 : https://learn.microsoft.com/zh-cn/azure/ai-services/openai/concepts/models调用代码:https://learn.microsoft.com/zh-cn/azure/ai-services/openai/how-to/switching-endpointsopenai说明: https://platform.openai.com/docs/guides/vision不同区域的服务器开通不同模型原创 2024-01-02 19:26:38 · 8370 阅读 · 9 评论 -
【论文+代码】1706.Transformer简易学习笔记
Transformer解决了RNN的不可并行化问题。最初只是与NLP任务有关目前广泛应用计算机视觉任务中原创 2023-09-06 18:47:14 · 724 阅读 · 0 评论 -
【GPT】中文大语言模型梳理与测评(C-Eval 、AGIEval、MMLU、SuperCLUE)
中文英文模型,GPT-4性能是当着无愧的王者,但无法使用。`中文评测平台`榜单比较混乱,看个人使用习惯。原创 2023-06-27 15:18:14 · 17929 阅读 · 0 评论 -
【ChatGLM-6B】清华开源的消费级显卡大语言模型,本地部署与测试
代码博客ChatGLM-6B,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。经过约 1T 标识符的中英双语训练,辅以监督微调、 反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 虽然规模不及千亿模型,但大大降低了用户部署的门槛,并且已经能生成相当符合人类偏好的回答。原创 2023-04-10 18:35:18 · 4851 阅读 · 2 评论