- 博客(216)
- 收藏
- 关注
原创 Error while loading conda entry point: conda-content-trust (OpenSSL 3.0‘s legacy provider failed to
这个错误是由于 OpenSSL 3.0 的遗留(legacy)提供程序未能加载导致的。OpenSSL 3.0 默认禁用了某些旧的加密算法(如 MD5、SHA1 等),而 conda-content-trust 或其依赖的 cryptography 库可能尝试调用了这些旧算法,从而触发了这个错误。
2025-08-04 14:57:27
106
原创 RuntimeError: Tried to instantiate class ‘_core_C.ScalarType‘, but it does not exist! Ensure that it
使用Vllm起模型的时候报错RuntimeError: Tried to instantiate class '输入查看vllm需要哪个版本的torch。原因:vllm与torch版本不匹配。pip 重新安装即可。
2025-07-29 19:12:36
93
原创 ImageRAG复现已跑通(含免费OpenAI API key申请方法)
可以看到对于“非洲灰鹦鹉”这个没有出现的概念时,生成模型不能很好地生成,但是使用RAG检索到相应的鹦鹉图片后,生成模型生成的会更符合要求。需要下载stable-diffusion-xl-base-1.0和IP-Adapter两个模型。使用conda创建虚拟环境,注意把environment.yml。这里申请的免费OpenAI API key在其他地方还是能用的。耐心等待下载完成即可。
2025-07-24 17:13:25
615
原创 什么是GCN?GCN与GNN有哪些区别?
图卷积网络(GCN)是图神经网络(GNN)家族中的代表性模型,专门用于处理图结构数据。本文系统性地介绍了:1) GNN的基本原理与通用计算框架;2) GCN的谱域理论基础和层级传播机制;3) 两者的核心区别在于理论来源(谱图理论vs通用框架)、信息聚合方式(固定加权平均vs可自定义)和表达能力;4) 不同场景下的选型建议,其中GCN适合快速开发中小规模同构图,而其他GNN变体更适合复杂异构图;5) 通过PyTorch代码示例展示GCN实现,并展望了动态图、可解释性等前沿方向。理解二者的区别有助于在实际应用中
2025-07-22 21:46:36
764
原创 什么是GNN?——聚合、更新与循环
图神经网络(GNN)专为图结构数据设计,通过聚合邻居信息→更新节点状态→多层循环传播的核心流程学习节点表示。聚合阶段(如均值、求和)收集邻居特征,更新阶段融合自身与邻居信息,多层堆叠使信息远距离传播。GNN在节点分类、链接预测等任务中表现优异,但面临过度平滑、计算效率等挑战。其显式利用图拓扑的能力,使其在社交网络、推荐系统等领域具有独特优势,成为处理关系数据的强大工具。
2025-07-21 22:04:11
752
原创 ImportError: cannot import name ‘Markup‘ from ‘jinja2‘
【代码】ImportError: cannot import name 'Markup' from 'jinja2'
2025-04-16 10:57:58
174
原创 pip install 出现 error: subprocess-exited-with-error 错误的方法
【代码】pip install 出现 error: subprocess-exited-with-error 错误的方法。
2025-04-16 10:54:54
167
原创 ImportError: cannot import name ‘Geo‘ from ‘pyecharts‘
ImportError: cannot import name ‘Geo‘ from ‘pyecharts‘
2025-04-15 15:22:57
139
原创 error: RPC failed; HTTP 408 curl 22 The requested URL returned error: 408
将本地 http.postBuffer 数值调整到500MB,可以根据自己的需求设置。:可能是推送的文件太大,要么是缓存不够,要么是网络不行。再次git push成功。
2025-04-09 15:46:44
708
原创 亮数据——无代码快速爬取数据并做可视化
当需要数据收集时,人们往往会想到爬虫技术。通过代码模拟人点击鼠标的过程,向服务器发送请求,再解析获得的响应,从而收集到想要的数据。但是对于没有接触过爬虫的同学来说,想要写好一段爬虫代码是很困难的,尤其是要爬取的网页有一些反爬机制的时候,就更加难写。今天给大家推荐一款无代码的数据爬取工具——亮数据
2025-03-28 10:14:33
818
原创 Nano-GraphRAG复现——只使用Ollama,无需API Key
在微软GraphRAG复现过程中,因其复杂的程序和源代码的错误,导致很难复现。因此,github中出现了graphrag的平替版本——NanoGraphRAG,该项目提供了一个更小、更快、更干净的 GraphRAG,同时保留了核心功能。** 但是很多小伙伴困扰于没有OpenAI的API key,因此本文介绍了如何使用Ollama跑通Graphrag,只需简单的操作即可!欢迎点赞收藏!
2025-03-06 19:09:55
756
5
原创 快速离线配置新版vscode-server,绝对避雷!
当生产环境是离线的时候,vscode-server没法自动下载配置,这就需要手动配置.下面,跟着本篇博客带你轻松配制好新版的vscode-server.觉得有帮助的小伙伴可以点个收藏和赞哦!
2025-02-24 10:02:50
1735
原创 PageRank代码实战——水浒传人物重要度排序与可视化
在数据分析和网络科学中,然而,PageRank不仅仅适用于网页排名,它还可以用于分析其他类型的网络结构,比如社交网络、引用网络,甚至是小说中的人物关系网络。在这篇博客中,我们将使用PageRank算法来分析《水浒传》中的人物关系,并对人物的重要性进行排序和可视化。
2025-02-21 14:49:35
870
原创 Jupyter Notebook报错500 : Internal Server Error/ImportError: cannot import name ‘Self‘ from ‘typing_ex
Jupyter Notebook的问题,已经成功解决,下面跟随这篇博客进行Debug吧!然后就可以正常打开啦!
2025-02-20 18:10:31
231
原创 DeepSeek r1+RAG:基于langchain实现RAG系统
在人工智能蓬勃发展的当下,大语言模型的应用越来越广泛。然而,如何让大模型更加智能,能够结合特定的知识给出更准确的回答,成为了许多开发者关注的焦点。今天,我们就来探讨一下如何基于 langchain 实现一个强大的 RAG 系统,并结合 DeepSeek 模型!
2025-02-19 18:33:19
1155
原创 2024年度总结——理想的风,吹进现实
2024年悄然过去,留下了太多美好的回忆,不得不感慨一声时间过得真快啊!旧年风雪尽,新岁星河明。写下这篇博客,记录我独一无二的2024年。如果用一句话总结这一年,我想用的是,如果用三个词总结这一年,我想用的是。这一年,结束了我的大三下和大四上时光,成功保研到了,离家更近了一些。这一年,我拿到了,圆了大学的梦想。这一年,我,留下了自己的身影。这一年,我,甚至会为一场球赛热泪盈眶。这一年,我更加明白,明白家是心灵的港湾。
2025-01-26 19:50:27
1980
25
原创 Docker与虚拟机的区别及常用指令详解
Docker和虚拟机各有优缺点,选择哪种技术取决于具体的应用场景和需求。Docker以其轻量级和快速部署的特性,在现代开发中得到了广泛应用。通过掌握Docker的常用指令,开发者可以更高效地管理和部署应用程序。希望本文能帮助你更好地理解Docker与虚拟机的区别,并在实际工作中灵活运用Docker技术。
2025-01-14 18:14:49
978
转载 FlashAttention的原理及其优势
FlashAttention 是一种高效且内存优化的注意力机制实现方法,通过分块计算和内存访问优化,显著降低了注意力机制的计算开销。它不仅适用于现有的Transformer模型,还为未来更大规模的模型提供了可能性。随着深度学习模型的不断扩展,FlashAttention 将成为解决计算和内存瓶颈的重要工具。
2025-01-13 17:24:55
1483
原创 为什么Transformer使用LayerNorm而不是BatchNorm?
在深度学习的Transformer架构中,有一个有趣的细节是它使用了Layer Normalization()而非Batch Normalization(这两种归一化方法在不同的神经网络架构中都发挥着重要的作用,但为什么Transformer选择了LayerNorm呢?让我们来一探究竟。
2025-01-13 17:16:08
1304
原创 什么是大模型复读机问题:原因和解决方案
复读机问题是大语言模型生成文本时的一种常见现象。重复相同的词语或短语。反复表达相同的意思,尽管用词可能略有不同。在长文本生成中,模型忘记之前的内容,重新生成相似段落。例如,当用户向模型提问“如何提高写作能力?”时,模型可能会反复强调“多读书”或“多练习”,而缺乏更深层次的建议。这种现象不仅降低了生成文本的质量,还可能让用户感到困惑或不耐烦。复读机问题是大语言模型在文本生成过程中面临的一个重要挑战。其成因复杂,涉及训练数据、解码策略、模型架构等多个方面。
2025-01-11 15:51:00
1558
原创 为何SFT之后模型反而变傻了,有什么解决方案?
在当今的人工智能领域,SFT(Supervised Fine - Tuning)是提升模型性能以适应特定任务的常用手段。然而,不少开发者都遭遇过一个头疼的问题:模型经过SFT后,表现不但没有提升,反而“变傻”了。今天咱们就来深入探讨一下这背后的原因以及行之有效的解决方案。
2025-01-11 15:50:45
1228
原创 Prefix LM 和 Causal LM 区别是什么?
Causal LM是严格单向的,只能利用前面的词,适合纯生成任务(如 GPT)。Prefix LM允许前缀部分双向编码,适合需要结合上下文的任务(如 T5、BART)。虽然两者都基于前面的内容预测后续内容,但Prefix LM对前缀的处理更灵活,能够利用更多的上下文信息。希望这篇博客能帮助你更好地理解Prefix LM和Causal LM的区别!如果还有疑问,欢迎继续讨论!
2025-01-10 08:40:53
1015
原创 RAG项目实战——基于Llamaindex微调BGE Embedding模型(附完整源码和转化好的数据集下载)
RAG模型通过结合检索和生成两个步骤来回答问题。首先,模型从大量文档中检索出与问题相关的文档片段,然后基于这些片段生成最终的回答。检索步骤的准确性直接影响到生成步骤的效果,而检索的准确性又依赖于嵌入模型的质量。嵌入模型的作用是将文本转换为向量表示,使得语义相似的文本在向量空间中距离较近。然而,通用的预训练嵌入模型可能无法很好地适应特定领域或任务的需求。因此,通过对嵌入模型进行微调,可以使其更好地适应特定的任务和数据集,从而提高检索的准确性。
2025-01-10 08:40:36
1846
原创 多模态RAG项目实战——结合CLIP与MLLM实现图像检索与理解(附源码、数据集下载和模型下载方式)
多模态图文检索实战——基于CLIP实现图文检索系统(附源码):生成文本嵌入。:从本地路径读取图像并生成图像嵌入。:计算两个向量之间的余弦相似度。:计算查询与候选图像之间的相似度,并返回最匹配的图像。:批量生成候选图像的嵌入。# 函数:生成文本嵌入try:# 从本地路径读入图片。
2025-01-09 14:11:25
3165
原创 卷积参数量和计算量怎么计算?
在深度学习领域,卷积操作是非常重要且常用的一种运算方式,了解其参数量和计算量的估计方法对于模型的设计、优化以及资源评估等方面都有着关键的意义。
2025-01-09 09:50:46
1303
原创 大模型实战——基于langchain实现AdvanceRAG(附完整源代码、包括Query改写、Prompt、Reranker重排)
通过本文,我们详细介绍了AdvanceRAG的工作流程,包括Query改写、使用集成检索器进行文档检索、通过CrossEncoder进行文档重排以及最终使用LLM生成回答。这一流程展示了如何利用先进的自然语言处理技术,实现高效、准确的信息检索与回答生成。希望本文能帮助你更好地理解并应用AdvanceRAG技术,解决实际的自然语言处理任务。希望大家喜欢,我们下篇博客再见!
2025-01-08 17:13:42
1322
原创 什么是隐马尔可夫模型?
隐马尔可夫模型(Hidden Markov Model,HMM)是一种统计模型,用于描述一个含有隐含未知参数的马尔可夫过程。它由两个部分组成:一个是隐藏的马尔可夫链,其状态不能被直接观察到;另一个是与隐藏状态相关的可观察的输出序列。简单来说,它可以根据已知的观测序列来推测隐藏的状态序列。
2025-01-08 10:22:52
979
原创 多模态图文检索实战——基于CLIP实现图文检索系统(附源码)
利用CLIP模型实现图文检索为我们在多媒体数据处理等诸多领域提供了很大的便利,比如在图像搜索引擎、内容推荐系统等方面都有着广阔的应用前景。这也是RAG最核心的部分可以说这是多模态RAG的一个简单尝试,在实际应用中,我们还可以进一步优化模型参数、增加更多的图片和文本数据进行训练、改进相似度计算的策略等,来不断提升图文检索的准确性和效率,希望这篇博客能够帮助大家对利用CLIP实现图文检索有一个初步的了解和实践思路哦。
2025-01-07 18:44:01
2308
原创 VISRAG论文介绍:一种直接的视觉RAG
VisRAG 的新颖设计突出了直接利用 VLM 而无需中间解析,可以重新定义 RAG 系统的边界。,产生一系列隐藏状态,最终嵌入通过对最后一层VLM隐藏状态进行加权平均池化得到。在用户查询时,同样用这个VLM对用户的Query进行编码,并在RAG数据库中进行查找。VisRAG-Ret使用VLM直接对文档页面进行编码,而不是先解析文档获取文本。Method:和传统基于文本的RAG一样,VISRAG也分为检索阶段和生成阶段,分别叫做VisRAG-Ret和VisRAG-Gen。,一种直接的视觉RAG。
2025-01-06 20:16:22
451
原创 NLP项目实战——基于Bert模型的多情感评论分类(附数据集和源码)
在当今数字化的时代,分析用户评论中的情感倾向对于了解产品、服务的口碑等方面有着重要意义。在本次项目中,我们将展示如何利用 Python 语言结合transformers库,借助。
2025-01-06 20:10:17
3246
原创 绝对位置编码和相对位置编码有什么联系和区别?
绝对位置编码和相对位置编码是Transformer模型中处理序列数据时引入位置信息的两种不同方法。它们各有优缺点,适用于不同的任务场景。在选择使用哪种位置编码时,需要根据具体任务的需求和模型的复杂度进行权衡。在某些情况下,结合使用两种位置编码方法可能会取得更好的效果。
2025-01-04 17:47:43
1085
原创 Self-Attention和Cross-Attention的联系与区别
Self-Attention(自注意力)是指在处理输入序列中的每个元素时,考虑到该元素与序列中所有其他元素之间的关系。这种机制能够让模型在处理每个输入时,不仅仅依赖于当前输入的信息,还能够通过加权的方式获取到其他输入的信息,从而更好地捕捉到输入序列中各个元素之间的依赖关系。在Self-Attention机制中,每个输入元素都与序列中所有其他元素进行相互作用,计算它们之间的相似性(通常是通过点积来计算)。基于这些相似性得分,模型能够动态地调整每个元素的表示,使得每个元素能够获得与其最相关的信息。
2024-12-17 21:37:26
1801
原创 Flamingo论文介绍:把视觉特征向语言模型看齐
今天介绍一篇经典的多模态论文,来自NeurIPS 2022的《Flamingo: a Visual Language Model for Few-Shot Learning》
2024-12-17 20:50:05
1411
原创 如何使用微调后的Lora适配器?
Lora是一种轻量级的模型适配技术,旨在减少微调大规模预训练模型时的计算和存储需求。通过引入低秩矩阵的适配器,Lora能够在不改变原始预训练模型的基础上,通过学习适当的低秩矩阵来调整模型的参数。这样,Lora使得微调过程中只需要调整少量的参数,极大地降低了微调的成本。
2024-12-16 20:10:58
703
原创 怎么理解大模型推理时的Top_P参数?
在大语言模型推理过程中,Top_P参数(也叫 核采样)是一种控制生成文本的策略,用于调整生成的多样性和准确性。它的全称是 累积概率采样(Cumulative Probability Sampling)。在文本生成任务中,模型会根据当前的上下文预测下一个单词或标记。在传统的 贪婪解码(greedy decoding)中,模型每次都会选择概率最大的单词。然而,这样的策略可能会导致生成的文本过于单一、缺乏多样性。为了增加多样性,top_p 提供了一种替代方法。它基于模型预测的单词概率来控制生成的单词选择范围。
2024-12-12 22:44:18
4235
原创 CLIP论文提炼与代码实战
今天和大家分享一篇多模态的经典论文,大名鼎鼎的CLIPLearning Transferable Visual Models From Natural Language Supervision。
2024-12-09 17:38:00
979
1
原创 RAG系统分类、评估方法与未来方向
分享一篇RAG综述:[Retrieval-Augmented Generation for Large Language Models: A Survey](https://arxiv.org/pdf/2312.10997),主要想了解一下RAG的评估方法,分享给大家。
2024-12-07 21:08:50
1414
原创 LLM/深度学习Linux常用指令与代码(进阶)
CUDA_VISIBLE_DEVICES指定卡号,train.py表示运行的程序,result.log表示日志存放的地址,默认存放在当前目录下,也可以指定路径,比如。当需要查看大规模json文件或者txt文件时,如果直接打开,不仅打开缓慢,还很有可能导致界面卡死,可以通过head查看文件内容。服务器之前传输大文件如模型文件时,还是以压缩包的形式传输比较好,防止数据损坏,主要用两种打包方式,zip打包和tar打包。-s:表示只显示目录的总大小(不显示子目录的大小)。f:指定归档文件名。
2024-12-04 15:36:28
1325
1
原创 怎样理解Transformer里面的KQV?
之前有介绍过Transformer的结构,其中最重要的部分就是里面的自注意力公式,其实就是对KQV矩阵做运算,但是不是很明白,通过这篇博客帮助自己和大家有更好的理解。
2024-11-28 09:17:22
987
LLM八股文知识点集合
2025-02-26
全国大学生学科竞赛全览-涵盖多项领域及具体实施细则
2025-02-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人