![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
weixin_45997688
这个作者很懒,什么都没留下…
展开
-
用AIStudio运行自己的Pytorch代码
1.上传自己数据集将自己的数据集压缩成“数据集名.zip”形式,在AIStudio中找到数据集->创建数据集,然后一步一步按照提示做。2.创建项目在AIStudio中找到项目->创建项目,填写项目描述,在点击“创建”前要“添加数据集”,在“个人数据集”中找到自己刚刚上传的数据集,添加了数据集后再点击“创建”。3.解压数据集进入自己的项目,在终端执行“unzip 数据集名.zi...原创 2020-05-25 22:17:42 · 6064 阅读 · 3 评论 -
pandas读取csv文件报错
import osimport pandas as pdtrain_data_dir="/dataset/训练集"train_label_file="train.csv"path=os.path.join(train_data_dir,train_label_file)print(path)train_labels=pd.read_csv(path)结果:/dataset/训...原创 2020-03-30 10:21:25 · 548 阅读 · 0 评论 -
生成对抗神经网络基本思想
生成对抗神经网络(GAN)中有两个模型,一个是生成器(Generator),另一个是判别器(Discriminator)。生成器希望生成一个近似真实的图片(也可以不是图片,根据不同的神经网络结构,生成对抗神经网络可以被用来生成多种不同的数据类型),而判别器是一个分类模型,用来判断一个图片是不是真实(真实的图片是指从数据集里获取的图片),如果是真实的图片,返回1,不是则返回0。这两个模型对抗训练,逐...原创 2020-02-25 21:51:35 · 1241 阅读 · 0 评论 -
ImageFolder
ImageFolder(root, transform=None, target_transform=None, loader=default_loader)它主要有四个参数:root:在root指定的路径下寻找图片transform:对PIL Image进行的转换操作,transform的输入是使用loader读取图片的返回对象target_transform:对label的转换lo...原创 2020-02-25 21:38:24 · 257 阅读 · 0 评论 -
梯度下降
1.梯度下降(Gradient Descent)、批量梯度下降(Batch Gradient Descent,简称BGD)与随机梯度下降(Stochastic Gradient Descent,简称SGD):自变量向着梯度反方向移动,可以减小函数值。一维:x←x−ηf′(x)x\leftarrow x-\eta f'(x)x←x−ηf′(x)多维:x←x−η∇f(x)\bf{x\leftarr...原创 2020-02-25 01:03:33 · 104 阅读 · 0 评论 -
Sequence to Sequence模型理解
借鉴博客:几张图彻底搞定Seq2SeqSequence to Sequence模型由两部分组成:Encoder和Decoder。在机器翻译过程中,假设要将汉语翻译成英语,首先,我们需要两个词典,一个是汉语的词语与数字(index)的一一对应的词典,另一个是英语单词与数字(index)的一一对应的词典,这样,就可以由词语得到数字,也可以由数字得到词语。1.Encoder部分:对于输入的一句汉语...原创 2020-02-19 19:39:01 · 1662 阅读 · 0 评论 -
RNN,GRU,LSTM计算公式
1.循环神经网络(recurrent neural network,简称RNN)假设Xt∈Rn×dX_t\in R^{n\times d}Xt∈Rn×d是时间步ttt的小批量输入,Ht∈Rn×hH_t\in R^{n\times h}Ht∈Rn×h是该时间步的隐藏变量,则Ht=ϕ(XtWxh+Ht−1Whh+bh)H_t=\phi(X_tW_{xh}+H_{t-1}W_{hh}+b_h)...原创 2020-02-17 22:36:51 · 613 阅读 · 0 评论 -
卷积神经网络基础
1.二维互相关运算:由二维的输入数组和二维的核数组得到一个二维的输出数组。这个二维的核数组通常称为卷积核或过滤器(filter),它的高度和宽度一般比输入数组小。二维卷积层是将输入与卷积核做互相关运算,再加一个标量偏置。因此卷积层的模型参数就包括卷积核和标量偏置。2.特征图(feature map):简单来说就是指输出数组,因为它可以看作是输入在空间维度(高和宽)上的某一级表征。感受野(r...原创 2020-02-16 11:16:53 · 110 阅读 · 0 评论 -
PyTorch中data和detach()及detach_()
正常情况下:import torchx=torch.arange(-2.0,2.0,1.0,requires_grad=True)y=x.sigmoid()#x.relu()#x.tanh()y.sum().backward()print(x.grad)#tanh()时:tensor([0.0707, 0.4200, 1.0000, 0.4200])#relu()时:tensor([...原创 2020-02-14 13:13:49 · 263 阅读 · 0 评论 -
softmax回归的基本要素
softmax回归的基本要素1.数据集:带有标签的图片,即已分类好的图片。以28×2828\times2828×28的灰度图为例,它们共分为10类。2.模型:只有一个全连接层的神经网络,因此是单层神经网络。1.输入为图片,以其像素为输入,即一个样本的输入应为1行784列(28×28=78428\times28=78428×28=784)的向量。2.一个样本的真实输出为1×101\times...原创 2020-02-14 00:10:53 · 114 阅读 · 0 评论 -
实现线性回归
一、线性回归的基本要素1.模型:设为y=w1x1+w2x2+by=w_1x_1+w_2x_2+by=w1x1+w2x2+b2.数据集:已知一些样本,每一个样本由x1x_1x1,x2x_2x2,yyy组成,希望通过训练这些样本得到模型中参数w1w_1w1,w2w_2w2,bbb的值。x1x_1x1,x2x_2x2称为特征(feature),yyy称为标签(label)。3...原创 2020-02-13 01:27:41 · 256 阅读 · 0 评论