![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
WTIAW.TIAW
这个作者很懒,什么都没留下…
展开
-
深度学习绘制热力图heatmap、使模型具有可解释性
获取的特征图,然后根据特征图梯度计算出权重值,加在原图上面。原创 2024-03-20 14:12:47 · 1267 阅读 · 0 评论 -
Yolov8训练自己的数据集,不会出现command nod found
【代码】Yolov8训练自己的数据集。原创 2023-04-05 15:10:55 · 343 阅读 · 0 评论 -
【pytorch】优雅的操作张量维度(rearrange)和便携式矩阵乘法(einsum)
einops是一个简洁优雅操作张量的库,并且支持对numpy,pytorch,tensorflow中的张量进行操作,该库最大的优点是函数的使用逻辑清晰明了,其中中常用的三个函数分别是rearrange,repeat,reduce。:用于对张量的维度进行重新变换排序,可用于替换pytorch中的reshape,view,transpose和permute等操作:用于对张量的某一个维度进行复制,可用于替换pytorch中的repeat。转载 2023-06-11 16:33:05 · 1269 阅读 · 0 评论 -
Yolo格式标签可视化
【代码】Yolo格式标签可视化。原创 2023-06-04 13:01:09 · 647 阅读 · 2 评论 -
为什么当设置parameters.requires_grad=False :误差仍然反向传播,梯度不更新
用法:冻结参数,不参与反向传播,具体实现是将要冻结的参数的requires_grad属性置为false,然后在优化器初始化时将参数组进行筛选,只加入requires_grad为True的参数。首先要明白,误差回传与否,与 requires_grad 的值没有关系,取决于 loss.backward( )。而权重和偏置值的偏导值是多少并不影响误差反向传播,误差反向传播主干部分计算的是每一层激活前神经元的偏导值。我们要知道,param 包括的无非是 权重 和 偏置值。转载 2023-05-06 20:48:41 · 620 阅读 · 0 评论 -
【PyTorch】下载的预训练模型的保存位置(Windows)
xxx替换为你的用户名。转载 2023-05-06 01:50:35 · 1212 阅读 · 0 评论 -
365天深度学习打卡 第N3周:调用Gensim库训练Word2Vec模型
自然语言处理,简称 NLP,是人工智能的一个分支,它允许机器理解、处理和操纵人类语言。Gensim是在做自然语言处理时较为经常用到的一个工具库,主要用来以无监督的方式从原始的非结构化文本当中来学习到文本隐藏层的主题向量表达。拿到了分词后的文件,在一般的NLP处理中,会需要去停用词。因此对于word2vec,我们可以不用去停词,仅仅去掉一些标点符号,做一个简单的数据清洗。在实际应用中,可以调参提高词的embedding的效果。库,用于从原始的非结构化的文本中,无监督地学习到文本隐层的主题向量表达。原创 2023-05-05 13:31:15 · 387 阅读 · 0 评论 -
PyTorch保存中间变量的导数值
为了节省显存,pytorch在反向传播的过程中只保留了计算图中的叶子结点的梯度值,而未保留中间节点的梯度,如下例所示:在利用autograd机制时,一般只会保存函数值对输入的导数值,而中间变量的导数值都没有保留。可以看到当进行反向传播后,只保留了x的梯度tensor(24.),而x1的梯度没有保留所以为None。原创 2023-05-03 23:25:39 · 195 阅读 · 0 评论 -
计算机领域的pipeline是什么意思
管道(Pipeline)是一种常见的处理问题的方法。它是指将多个任务按顺序连接起来,使得前一个任务的输出作为下一个任务的输入,从而形成一个处理流程。原创 2023-04-30 03:25:06 · 290 阅读 · 0 评论 -
安装pytorch时死机
用如下命令安装pytorch时电脑不断出现死机。转载 2023-04-28 04:25:32 · 195 阅读 · 0 评论 -
卷积核权重共享、局部感知、多核、平移不变性、筛选器、可学习性
具体来说,卷积神经网络中的每个卷积层都包含了多个卷积核,每个卷积核都可以看做是一个滤波器,用于检测输入图像中的某种特定的特征。例如,在图像识别任务中,第一层卷积可能使用一些水平和垂直的边缘检测器,而后面的卷积层可能会使用更复杂的卷积核来检测纹理、局部结构等更高级的特征。综上所述,卷积运算具有局部感知性、参数共享、多核性、筛选器、不变性和可学习性等特征,这些特征使得卷积成为一种非常有用和高效的特征提取方式,应用广泛于计算机视觉、图像识别、自然语言处理等领域。原创 2023-04-27 23:32:32 · 467 阅读 · 0 评论 -
什么是分组卷积、深度可分离卷积?附上深度可分离卷积代码
分组卷积,g = in = out,此时每个卷积核只负责一个通道,生成的特征图之间不存在信息交换(即在通道维度不存在信息交换)1 x 1卷积,用来实现通道件的信息交换,但在空间层面上缺少信息交流。可以使用 torch.nn.Conv2d() 中的卷积组参数groups,来实现深度可分离卷积。groups 参数是用于控制输入和输出的连接的,表示要分的组数(in_channels 和out_channels 都必须能被 groups 参数整除)。原创 2023-04-22 15:25:19 · 2305 阅读 · 0 评论 -
Pytorch实现使用余弦退火算法优化手写数据集分类
余弦退火算法是一种优化算法,通常用于训练神经网络等模型。它的主要思想是动态调整学习率,使得模型可以更快地收敛并获得更好的性能。余弦退火算法的原理比较简单,其核心在于使用余弦函数来动态地调整学习率。具体地,算法将学习率从初始值逐步降低到最小值,并在此后保持不变。通过这种方式,余弦退火算法可以在训练过程中缓慢降低学习率,从而避免在训练过程中出现梯度下降过快导致的震荡现象,进而提高模型的训练稳定性和泛化能力。原创 2023-04-14 23:52:25 · 1733 阅读 · 0 评论 -
使用Stacking集成学习(逻辑回归、随机森林)对鸢尾花数据集进行分类
然后,将该元特征矩阵作为输入传递给训练好的元分类器,以获得最终的预测结果。利用基础分类器生成元特征:将训练数据集分成两部分,一部分用于训练基础分类器,另一部分用于生成元特征。对于每个基础分类器,利用其中一部分训练数据集进行训练并在剩余部分数据上生成元特征,以此来获取各个基础分类器对样本的预测结果。需要注意的是,Stacking的性能取决于选择的基础分类器和元分类器的类型和数量,以及如何对数据集进行划分、调参和优化等。构建元特征矩阵:将所有基础分类器的生成的元特征整合到一起,构成一个元特征矩阵。原创 2023-04-14 23:12:32 · 1266 阅读 · 0 评论