深度学习
文章平均质量分 60
记录笔者对一些深度学习知识的理解,欢迎大家关注及订阅!也期待在CSDN上结识更多的朋友!
信小海
大家好,我是小海,一个热爱分享技术的程序员;我的昵称是信小海,因为我想成为一个可以让大家永远信赖的小海。
小海一直致力于撰写“保姆级”教程,希望我的分享对你有所帮助!
总之,感谢大家阅读,欢迎大家关注!你的点赞、收藏和关注就是对我最大的鼓励和支持!期待和大家成为好朋友!让我们一起为IT行业添砖加瓦,使其变得更加美好吧!
展开
-
Pytorch复现导向反向传播Guided Backpropagation
本文通俗易懂地讲解了导向反向传播Guided Backpropagation的原理,并使用Pytorch进行了复现。文中所涉及的代码只需稍加改动,即可嵌入到自己的代码中。原创 2023-03-21 19:22:37 · 1333 阅读 · 0 评论 -
解决RTX 3090 with CUDA capability sm_86 is not compatible with the current PyTorch installation.
解决RTX 3090 with CUDA capability sm_86 is not compatible with the current PyTorch installation.原创 2023-02-13 11:58:33 · 8438 阅读 · 2 评论 -
Pytorch获取神经网络各层的参数名称及参数值
model.children()函数、model.state_dict()函数、model.parameters()函数和models.named_parameters()函数的实例演示。原创 2022-12-30 11:19:49 · 6719 阅读 · 0 评论 -
详解Pytorch中的torch.nn.MSELoss函,包括对每个参数的分析!
详解Pytorch中的torch.nn.MSELoss函数,包括对每个参数的分析!原创 2022-12-10 01:44:20 · 23576 阅读 · 1 评论 -
【通俗易懂】详解torch.nn.functional.grid_sample函数:可实现对特征图的水平/垂直翻转
详解torch.nn.functional.grid_sample函数):可实现对特征图的水平/垂直翻转。原创 2022-12-02 23:19:42 · 16451 阅读 · 33 评论 -
详解MMD分布损失的计算过程(度量两个不同但相关的分布的距离)
用来度量两个不同但相关的分布的距离的MMD损失的代码实现。原创 2022-11-06 22:51:11 · 5319 阅读 · 5 评论 -
使用torch.max函数计算一批特征图中每个通道的最大值
使用torch.max函数计算一批特征图中每个通道的最大值原创 2022-11-07 16:50:33 · 2127 阅读 · 3 评论 -
Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)
Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)原创 2022-11-08 15:21:25 · 5260 阅读 · 5 评论 -
详解Pytorch中的view函数
详解Pytorch中的view函数,通俗易懂!原创 2022-11-28 11:09:51 · 13635 阅读 · 0 评论 -
RuntimeError: grad can be implicitly created only for scalar outputs的原因:Pytorch不支持对张量的求导
RuntimeError: grad can be implicitly created only for scalar outputs的原因:Pytorch不支持对张量的求导。原创 2022-11-22 11:51:44 · 7368 阅读 · 1 评论 -
TensorFlow中的tf.nn.softmax_cross_entropy_with_logits_v2函数详解
TensorFlow中的tf.nn.softmax_cross_entropy_with_logits_v2函数详解原创 2022-11-21 19:05:42 · 2066 阅读 · 0 评论 -
cmd中检查cuda及cudnn是否成功安装及其版本
2023最新版:在cmd中检查cuda及cudnn是否成功。原创 2022-04-18 01:10:10 · 38672 阅读 · 9 评论 -
深度学习中典型损失函数的介绍及复现
一、 信息熵信息熵于1948年由香农提出,是从热力学中借用过来的概念,用来描述信源的不确定度。公式如下。例子如下。代码复现。# 信息熵的计算# numpy中对数的底数默认为eimport mathimport numpy as npp = [0.6, 0.1, 0.1, 0.1,0.1]hp = -sum([p[i]*np.log(p[i]) for i in range(len(p))]) # Python中的列表解析print(f"H(p) = {hp}")注意:本博客原创 2022-05-30 15:57:41 · 217 阅读 · 1 评论 -
对Pytorch中的transforms预处理效果进行可视化
对Pytorch中的transforms预处理效果进行可视化。原创 2022-07-27 15:55:31 · 622 阅读 · 0 评论 -
transforms.Normalize()函数的计算过程及参数由来
transforms.Normalize()函数的计算过程及参数由来原创 2022-07-27 14:51:06 · 5329 阅读 · 3 评论 -
nn.CrossEntropyLoss()的具体计算过程
nn.CrossEntropyLoss()函数的具体计算过程展示。原创 2022-07-26 19:40:23 · 3057 阅读 · 0 评论