![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
小白拉普拉斯
这个作者很懒,什么都没留下…
展开
-
Pytorch中nn.LSTM与nn.LSTMCell
class torch.nn.LSTM(*args, **kwargs)对输入序列的每个元素,LSTM的每层都会执行以下计算:hth_tht是时刻ttt的隐状态,ctc_tct是时刻ttt的细胞状态,xtx_txt是上一层的在时刻ttt的隐状态或者是第一层在时刻ttt的输入。it,ft,gt,oti_t, f_t, g_t, o_tit,ft,gt,ot 分别代表 输入门,遗忘门,细胞和输出门。参数说明:input_size – 输入的特征维度,(特征向量的长度,如2048)h原创 2020-11-20 16:14:44 · 3124 阅读 · 1 评论 -
深度学习(训练/开发/测试集)的划分技巧
小数据量时代(100 - 1000 - 10000条左右或更多):一. 70%训练集 , 30%测试集二. 60%训练集 , 20%交叉验证集 , 20%测试集大数据量时代(1000000条左右):一. 98%训练集 , 1%交叉验证集 , 1%测试集二. 99.5%训练集 , 0.25%交叉验证集 , 0.25%测试集三. 99.5%训练集 , 0.4%交叉验证集 , 0.1%测试集转发自...原创 2020-07-31 12:50:15 · 299 阅读 · 0 评论 -
Tmux安装与使用
Tmux安装与使用原创 2020-07-28 12:47:59 · 2453 阅读 · 0 评论 -
Unbuntu16.04安装Anaconda3及pytorch、指定GPU运行代码
下载Anaconda3-2020.02-Linux-x86_64.sh,打开此文件所在目录,用以下命令安装bash Anaconda3-2020.02-Linux-x86_64.sh安装pytorch,由于网速原因,容易中断,可采用以下方法(1)在终端输入gedit ~/.condarc(2)打开后输入以下内容并保存:channels: - defaultsshow_channel_urls: truechannel_alias: https://mirrors.tuna.tsi.原创 2020-07-26 19:59:14 · 278 阅读 · 0 评论 -
pytorch深度学习网络调试办法
可以用如下代码段进行eval:以densenet为例if __name__ == "__main__": dense121 = densenet121(pretrained=False,progress=True,num_classes=40).cuda() #print(dense121) model = dense121 model.eval() print(model) input = torch.randn(1,3,224,224) dev原创 2020-07-20 11:10:07 · 348 阅读 · 0 评论 -
如何查看list的维度
在写神经网络代码过程中,总是有很多的矩阵变换,有很多时候矩阵是有list构成的,然而list又没有shape方法,无法直接查看list的维度。通过查找资料,我看到可以使用将其转化为数组的形式查看维度,代码如下:import numpy as npprint((np.array(list)).shape)#另外还有一个小tips:在调试代码时,可以加入:exit()...原创 2020-07-20 11:06:37 · 6745 阅读 · 0 评论 -
神经网络中不同类型的卷积层
Convolution1x1/Pointwise ConvolutionsSpatial and Cross-Channel ConvolutionsGrouped ConvolutionsSeparable ConvolutionsFlattened ConvolutionsShuffled Grouped ConvolutionsDilated Convolution(Atrous Convolution)Deformable ConvolutionAttentionSummary.原创 2020-07-08 21:15:40 · 151 阅读 · 0 评论 -
完全图解RNN、RNN变体、Seq2Seq、Attention机制
完全图解RNN、RNN变体、Seq2Seq、Attention机制转载 2020-07-06 19:46:44 · 163 阅读 · 0 评论 -
修改Jupyter notebook 起始目录的方法
使用Anaconda3安装时,同时也安装了Jupyter notebook,但是默认的起始目录通常不是我们需要的,怎样才能让我们每次启动Jupyter notebook时自动把指定目录作为起始目录呢?下面就是修改方法,这只是一个方法,其他方法可以上网搜索。1. 找到启动Jupyter Notebook的快捷方式,右键打开“属性”,如下图所示,看到目标对话框中最后有一个%USERPROFILE%。2. 把%USERPROFILE%替换为需要设置为启动目录的路径即可。重启jupyter not.转载 2020-07-03 19:42:05 · 195 阅读 · 0 评论 -
使用深度学习进行图像分类pytorch
from glob import globimport osimport numpy as npimport matplotlib.pyplot as pltimport shutilfrom torchvision import transformsfrom torchvision import modelsimport torchfrom torch.autograd import Variableimport torch.nn as nnfrom torch.optim im...原创 2020-06-30 20:46:13 · 2804 阅读 · 2 评论 -
卷积神经网络pytorch
Pytorch中Softmax、Log_Softmax、NLLLoss以及CrossEntropyLoss的关系与区别详解PyTorch中文文档原创 2020-06-30 20:14:16 · 142 阅读 · 0 评论 -
PyTorch中的nn.Conv1d与nn.Conv2d
Torch.nn.Conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=1,bias=True)in_channels:输入维度out_channels:输出维度kernel_size:卷积核大小stride:步长大小padding:补0dilation:kernel间距PyTorch中的nn.Conv1d与nn.Conv2d...原创 2020-06-30 15:00:38 · 261 阅读 · 0 评论 -
卷积神经网络相关函数
原创 2019-12-30 16:25:22 · 156 阅读 · 0 评论 -
理解卷积神经网络
下面这部分是我见过对卷积神经网络理解比较到位的描述。原创 2019-12-17 13:46:13 · 121 阅读 · 0 评论 -
TensorFlow一元线性回归实践
import tensorflow as tfimport numpy as np#定义超参数learning_rate=0.01max_train_steps=1000log_step=17#输入数据train_X=np.array([[3.3],[4.4],[5.5],[6.71],[6.93],[4.168],[9.779],[6.182],[7.59],[2.167],[...原创 2019-12-09 17:25:56 · 223 阅读 · 0 评论 -
线性回归
from IPython import displayimport matplotlib.pyplot as pltfrom mxnet import autograd,ndimport d2lzhimport random#生成数据集w=[2,-3.4]b=4.2features=nd.random.normal(shape=(1000,2))labels=w[0]*feat...原创 2019-08-08 11:13:56 · 113 阅读 · 0 评论 -
在Anaconda中安装包出现Retrying (Retry(total=4, connect=None, read=None, redirect=None, status=None))
1.打开Anaconda Prompt2.对于默认的pip源的速度太慢,于是便搜集了一些国内的pip源,如下:阿里云 http://mirrors.aliyun.com/pypi/simple/中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/豆瓣(douban) http://pypi.douban.com/simple/清华大学 http...原创 2019-08-09 18:38:36 · 1253 阅读 · 0 评论 -
MXNet中NDArray的一些基础操作
1.1 NDArray基本用法from mxnet import nd#创建行向量x=nd.arange(10)print(x)#获取形状print(x.shape)#获取元素总数print(x.size)#改变形状y=x.reshape((2,5))print(y)#元素全0或1a0=nd.zeros((2,3,4))a1=nd.ones((2,3))#列表方式创建...原创 2019-08-07 20:53:25 · 1630 阅读 · 0 评论 -
mxnet.gluon.data.vision.transforms.ToTensor的作用
mxnet.gluon.data.vision.transforms.ToTensor的作用:将图像或成批图像转换为张量NDArray。将[0,255]范围内的图像(NDArray of shape (H x W x C))转换为[0,1]范围内的float32张量(NDArray of shape (C x H x W))。例子:from mxnet.gluon import dat...原创 2019-08-30 14:07:10 · 1320 阅读 · 0 评论 -
图像分类数据集(Fashion-MNIST)
import d2lzh as d2lfrom mxnet.gluon import data as gdataimport sysimport time#获取数据mnist_train=gdata.vision.FashionMNIST(train=True)mnist_test=gdata.vision.FashionMNIST(train=False)'''print(le...原创 2019-08-30 14:58:51 · 928 阅读 · 0 评论 -
softmax回归
1.纯粹的mxnet实现import d2lzh as d2lfrom mxnet import autograd,nd#读取数据集batch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)num_inputs=28*28num_outputs=10#初始化模型参数W=nd.rand...原创 2019-09-01 14:33:57 · 235 阅读 · 0 评论 -
多层感知机
1.mxnet实现import d2lzh as d2lfrom mxnet import ndfrom mxnet.gluon import loss as gloss#读取数据集batch_size=256train_iter,test_iter=d2l.load_data_fashion_mnist(batch_size)#定义模型参数num_inputs,num_outpu...原创 2019-09-02 18:57:04 · 747 阅读 · 0 评论 -
mxnet自动求梯度
from mxnet import autograd,ndx=nd.arange(4).reshape((4,1))print(x)x.attach_grad()with autograd.record(): y=2*nd.dot(x.T,x)y.backward()print(x.grad)原创 2019-08-08 09:28:21 · 245 阅读 · 0 评论