- 博客(255)
- 资源 (1)
- 收藏
- 关注
原创 各种损失 & 损失联合
最近刚看了一下对比学习的内容,这里就想着再整理一下其他的损失函数,然后又想着各个损失函数之间有哪些联合方式呢,这里学习并记录一下,方便以后查阅。
2025-06-09 10:27:26
886
原创 Scaled Dot-Product Attention 中的缩放操作
最近看代码又看到了一种缩放操作,记得之前了解过Transformer 中的缩放,但是细节记不清了,这里记录一下方便以后查阅。
2025-05-22 17:30:22
985
原创 旋转位置编码(Rotary Position Embedding, RoPE)
最近看代码,看到了一些旋转矩阵编码的内容,学习了一下,这里记录一下方便以后查阅。
2025-05-22 16:58:52
961
原创 图卷积神经网络(Graph Convolutional Network, GCN)
最近看论文看到了图卷积神经网络的内容,之前整理过图神经网络的内容,这里再补充一下,方便以后查阅。
2025-05-16 16:31:27
1235
原创 Transformer中的三种注意力机制
原本想学习一下交叉注意力,结果发现交叉注意力并不是一种特殊的注意力模型,只是Transformer中的一种注意力,因此这里都整理一下,方便以后查阅。
2025-05-06 21:00:43
1001
原创 先滤波再降采样 还是 先降采样再滤波
最近在处理信号时突然想到一个问题“先滤波再降采样 还是 先降采样再滤波”,这里学习并记录一下,方便以后查阅。
2025-05-05 19:23:09
1090
原创 经典的 Masked + Self-supervised learning 的模型方法
最近看论文看到了相关的内容,这里总结学习一下,方便以后查阅。
2025-05-05 18:13:57
712
原创 Zotero使用的一些设置
最近想找个好用的文献管理软件,然后发现了Zotero,但是Zotero不能显示分区信息,所以这里学习并整理一下配置过程,方便以后查阅。
2025-04-10 10:48:22
750
原创 WandB使用笔记
最近看代码,发现代码中有wandb有关的内容,搜索了一下发现是一个模型训练工具,然后学习了一下,这里记录一下使用过程,方便以后查阅。
2025-01-04 20:00:39
1959
1
原创 关于 self.train_size 的问题
最近看代码发现了 self.train_size 这个参数,之前没有遇见过,这里学习一下,记录下来方便以后查阅。
2025-01-02 11:27:46
745
原创 贝叶斯神经网络(Bayesian Neural Network)
最近在研究贝叶斯神经网络,一些概念一直搞不清楚,这里整理一下相关内容,方便以后查阅。
2024-12-28 21:27:07
2105
2
原创 Adversarial Machine Learning(对抗机器学习)
之前把机器学习(Machine Learning)的安全问题简单记录了一下,这里有深入研究了一些具体的概念,这里记录一下方便以后查阅。
2024-12-23 15:50:07
1662
原创 机器学习(Machine Learning)的安全问题
最近看论文,看到了”对抗样本“的一些内容,然后又研究了一下其背后的东西,发现还有”机器学习的安全“这一问题,然后找了几篇博客看了一下,发现了篇2019年的比较有意思的文章,这里整理一下,方编译后查阅。
2024-12-22 23:35:46
1181
原创 Vector Quantized Variational Autoencoders (VQ-VAE)
浅学一下VQ-VAE的内容,记录一下方便以后查阅。
2024-12-07 23:08:12
888
原创 变分推断(Variational Inference)
本篇博客的推到内容全部来自 变分推断(Variational Inference)初探,原本博客内容写的非常清楚,请感兴趣的读者移步原博客,这里只当作笔记整理,方便以后查阅。
2024-12-04 17:45:02
1256
原创 一维数据转二维的方法 1D to 2D
这篇文章好久之前写完了,一直放在草稿箱今天翻到了。之前研究了一下一维数据转二维的方法整理了一下,记录下来方便以后查阅。
2024-12-02 18:20:36
1309
原创 Logistic Regression(逻辑回归)、Maximum Likelihood Estimatio(最大似然估计)
梯度下降法通过计算损失函数(对数似然的负数)对模型参数的梯度来更新参数,以减小损失。是一种常用的统计方法,用于估计模型参数,使得在给定数据下,模型的概率最大化。具体来说,假设我们已知数据的分布类型(比如高斯分布、伯努利分布等),但我们并不知道分布的具体参数。逻辑回归模型的似然函数是基于每个训练样本的预测概率和真实标签的结合。,因为对数函数是单调递增的,因此最大化似然函数和最大化对数似然函数是等价的。损失函数的值越小,模型的预测越准确。由于逻辑回归是基于最大似然估计的,因此它的损失函数通常称为。
2024-12-02 17:10:11
1210
原创 监督(Supervised)、半监督(Semi-Supervised)、无监督(Unsupervised)、自监督(Self-Supervised)学习
最近在看文章,发现一些学习的方式还没有搞得很清楚,这里统一整理一下,加深认识,方便以后查阅。
2024-12-02 10:02:30
2992
原创 PyCharm使用随记
之前一直使用VScode进行编程,最近想试试PyCharm,就用学信网申请了1年的学生激活码,下面就PyCharm使用过程中的一些问题进行记录,方便以后查阅。
2024-11-25 13:06:27
269
原创 Nvidia显卡在深度学习应用中一些概念解释
之前一直在搞深度学习,最近又想着安装一下mamba试一下效果,可以配置环境就花了好长时间,主要还是一些概念没有弄明白,这里记录一下,方便以后查阅。
2024-08-11 11:51:58
1154
原创 安装VMamba并测试VSSBlock
最近想试一下VMamba的效果,所以想着安装一下VMamba,试一下VSSBlock的效果,这里记录一下安装过程,以备后续查阅。
2024-08-10 19:28:57
2426
4
原创 运行HGD数据集的 example.py 文件
使用HGD数据集时,需要从braindecode中调用相关的函数,但是在我的环境中运行时出现错误,现将解决过程记录,方便以后查阅。
2024-08-07 20:47:05
689
原创 Python @staticmethod、super().__init__()和self
最近在看代码,由于之前没有系统学习过Python,就有些知识点不是很清楚,这里整理一下,方便以后查阅。
2024-07-22 12:16:45
1182
原创 常用注意力机制 SENet CBAM ECA
在处理脑电信号时通常会用到一些注意力机制,来给不同的脑电通道不同的权重,进而体现出不同脑电通道在分类中的重要性。下面整理几种常见的通道注意力机制,方便以后查阅。
2024-07-21 22:57:01
1049
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人