![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
PyTorch
WZSRLGLLLL
这个作者很懒,什么都没留下…
展开
-
PyTorch学习(三)
全连接网络logistic问题其实就是一个很小的全连接网络,全连接网络简单的说就是每个输出节点都与下层的每个节点相连。下面的是一个简单三层全连接网络和它逐渐添加了优化学习的代码。import torchfrom torch import nn, optimfrom torch.autograd import Variablefrom torch.utils.data import DataLoaderfrom torchvision import datasets, transformsc原创 2020-08-13 17:52:27 · 127 阅读 · 0 评论 -
PyTorch学习(训练加速)
Mini-batch梯度下降在神经网络中对网络的训练,一般是将训练数据向量化后进行计算,可以单个的样本或者全部的样本整合到一个大矩阵中进行训练,mini-batch就是将训练集数据划分为几个小集合进行训练操作。mini-batch梯度下降是在训练时间与学习能力两个数值之间选择了一个较为平衡的方法,尽量使得训练时间和学习效果都能使我们满意。一般mini-batch的大小设置为64到512。标题...原创 2020-07-17 15:04:51 · 263 阅读 · 0 评论 -
PyTorch学习(改善深度神经网络)
偏差、方差偏差,方差是我们调整神经网络的一个重要指标,在搭建神经网络时需要权衡这两个值,当高偏差时,算法不能很好的拟合数据,称之为欠拟合;当高方差时,算法过于贴合数据集,称之为过拟合。判断偏差与方差的情况,可以根据训练集与验证集的正确率进行评估,训练集的误差高则偏差高,验证集的误差高则方差高,是可以出现方差与偏差同时很糟糕的情况。高偏差、高方差调整方法高偏差一般可以通过1、重新选择一个网络,包含更多的隐层。2、多次训练网络。3、尝试其他算法高方差可以通过1、使用更多的数据训练。2、正则原创 2020-07-05 21:43:31 · 235 阅读 · 0 评论 -
PyTorch学习(神经网络基础1)
之前看的那个本深度学习书太难啃了,好多概念都不懂,~~真就从入门到放弃呗,~~于是我换了本从基础讲的,先补一补再回去看吧(笑哭)。训练集、测试集、矩阵训练集和测试集内部包含的数据类型都是相同的,即(x,y),x代表输入数据,特征向量;y代表输出值,标签。当我们想把训练集变得更紧凑是时,可以用X一个矩阵把所有的特征向量放到一起,第一个特征向量放在第一列,第二个放在第二列,依次第m个放在m列。所以这个矩阵有m列,m为样本个数。这样好像就有点能明白之前算法中矩阵是怎么突然出现的了。...原创 2020-06-16 20:57:40 · 199 阅读 · 0 评论 -
PyTorch学习(二)
线性回归今天看了关于线性回归的内容,说实话还是不懂,书上给了一大堆公式也只能看懂公式之间的推导,实际要怎么使用这些公式还是不明白。。。总之先记一下部分内容吧。线性模型就是在给定的多个点,找到一个函数使得此函数线与各数据点之间的距离总体上呈最接近的状态,简单的说就是在一堆数据点中找到一条直线尽可能与这些点接近。线性模型表示为:f(x)=w1x1+w2x2+w3x3+...+wdxd+bf(x) = w_1x_1 + w_2x_2 + w_3x_3 + ...+w_dx_d + bf(x)=w1x原创 2020-06-13 20:57:58 · 158 阅读 · 0 评论 -
PyTorch学习(一)
1. Tensor(张量)pytorch中的张量与numpy的ndarray相对应,都表示一个多维的矩阵,张量与ndarray可以相互转化。Tensor有五种数据类型:32位浮点型torch.FloatTensor、64位浮点型torch.DoubleTensor、16位整型torch.ShortTensor、32位整型torch.IntTensor、64位整型torch.LongTensor。可以通过以下方式定义张量:a = torch.Tensor([[1,2],[2,3],[3,4]])#默认原创 2020-06-12 19:34:41 · 200 阅读 · 0 评论