![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
不会卷积
这个作者很懒,什么都没留下…
展开
-
图文并茂讲解CUDA, CUDA Toolkit, CUDA Driver, CUDA Runtime, nvcc之间的关系及其版本兼容性
系统讲解CUDA、CUDA toolkit、CUDA Driver、CUDA runtime、CUDNN、NVCC、Pytorch安装CUDA之间关系和版本兼容性原创 2023-03-12 00:16:37 · 13798 阅读 · 9 评论 -
关于torch.to(device)是否赋值的坑
深度学习使用GPU时需要把变量和模型都放到GPU上,经常会用到to(device)的操作,本文讲解一些常见用法。原创 2022-11-18 18:22:54 · 3087 阅读 · 0 评论 -
权重衰退实验(李沐动手学)
import torchfrom torch import nnfrom d2l import torch as d2limport matplotlib.pyplot as pltn_train, n_test, num_inputs, batch_size = 20, 100, 200, 5true_w, true_b = torch.ones((num_inputs, 1)) * 0.01, 0.05train_data = d2l.synthetic_data(true_w, true_原创 2022-02-04 17:26:03 · 1172 阅读 · 2 评论 -
Softmax回归从零开始实现(李沐动手学)
依然是pycharm环境,图像显示部分和jupyter不一样import torchimport matplotlib.pyplot as pltfrom IPython import displayfrom d2l import torch as d2ld2l.use_svg_display()#!!!!# help(d2l.use_svg_display())batch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(ba原创 2022-02-01 21:23:27 · 2018 阅读 · 1 评论 -
softmax回归损失函数求偏导部分的通俗推导
原创 2022-01-26 17:10:32 · 906 阅读 · 0 评论 -
线性回归的从零开始实现代码(李沐动手学)
只贴pycharm代码,和jupyter代码有部分出入,讲解部分上b站看跟李沐学AI,线性回归部分import matplotlib.pyplot as pltimport osimport randomimport torchfrom d2l import torch as d2ldef synthetic_data(w,b,num_examples): X=torch.normal(0,1,(num_examples,len(w))) y=torch.matmul(X,w)原创 2022-01-25 18:43:52 · 1502 阅读 · 0 评论 -
关于pytorch不区分行向量与列向量的实验
听李沐老师讲深度学习时候解释pytorch不区分行向量和列向量,只相当于是一维数组,为了理解透彻,做了一些实验r=torch.tensor([1,2,3],dtype=torch.float32)print(r,r.T)说明确实行和列向量没有区分再看看在矩阵与向量乘法中向量的角色r=torch.tensor([1,2,3],dtype=torch.float32)print(r,r.T)m=torch.ones(3,3)print(torch.mv(m,r))print(torch.m原创 2022-01-22 09:42:25 · 1796 阅读 · 0 评论 -
keras.Conv2D中输出尺寸和原通道数无关原因
做CNN图像分类时遇到的问题 x = Conv2D(16, (5,5), strides=(2,2))(x)调用summary函数后显示网络结构如下我们可以看到,输入的是2562564的图像数据(解释:256是图片的长宽,原本是三通道,为了方便分类我自己加了一个经过mask图像处理后的第四通道)经过步长为2,滤波器尺寸为(5,5)的卷积后,长宽变成126*126,但是为什么输出的通道数等于滤波器(卷积核)的个数,而与通道数量无关呢,注意,滤波器是尺寸中不含通道数?通过查阅资料,找到了一篇博客原创 2021-12-19 13:07:04 · 1452 阅读 · 0 评论