![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 70
非常可爱的刘妹妹
你走的每一步,都算数!!!
展开
-
多分类问题
PyTorch深度学习实践(b站刘二大人)P9讲 多分类问题 Softmax Classifier_努力学习的朱朱的博客-CSDN博客自学,侵删在Mnist数据集中,我们要得到的输出是0-9,共有十类,这种情况下我们希望输出0-9的概率>=0,且和为1使用SoftMax分类器进行多分类问题(其输入不需要Relu激活,而是直接连接线性层),经过SoftMax分类器后满足:1.大于等于0,2.所有类别概率和为1.NLLLoss(nagative log likelihoo...转载 2022-04-13 20:56:37 · 238 阅读 · 0 评论 -
加载数据集(b站刘二大人)
参考:自用,在意请联系删除Pytorch深度学习——加载数据集(b站刘二大人)P8讲 加载数据集_努力学习的朱朱的博客-CSDN博客1.①全部的数据都用(Batch)②随机梯度下降:只用一个样本 只用一个样本可以得到比较好的随机性,可以帮助我们跨越在优化中所遇到的鞍点,而用Batch(所有数据)的优点是可以最大化地利用向量计算的优势提升计算速度。 都用一个样本的随机梯度下降训练出的模型效果可能会比其他模型都更好,但是会导致优化用的时间更长,因为每次一个样本没法使用cpu或g...转载 2022-04-13 15:27:05 · 602 阅读 · 1 评论 -
处理多维特征的输入 Multiple Dimension Input
参考,自学PyTorch深度学习实践(刘二大人)P7 处理多维特征的输入 Multiple Dimension Input_努力学习的朱朱的博客-CSDN博客激活函数:参考(常用激活函数(激励函数)理解与总结):常用激活函数(激励函数)理解与总结_tyhj_sf的博客-CSDN博客_激活函数当我们尝试不同的激活函数时,我们只需修改一小部分内容:特别的,如果我们设置的激活函数是ReLU,由于它的取值范围是在(0,1),最后一层输出的值如果是小于0的话,那么在ReLU作用后,输出会为0..转载 2022-04-11 19:52:29 · 216 阅读 · 0 评论 -
逻辑斯蒂回归(b站刘二大人)
PyTorch深度学习实践(b站刘二大人)P6讲 逻辑斯蒂回归 Logistic Regression_努力学习的朱朱的博客-CSDN博客分类问题 分类问题,与之前学习的线性回归问题不同,输出的是分类的概率值,在训练过程中,计算它属于每一个分类的所有概率,其中概率最大的那一种分类,就是我们要的输出结果。 将之前的学习问题,修改成分类问题,x表示学习时间,y表示通过率,0表示不通过,1表示通过,这也叫做”二分类问题“在之前我们的学习中,最终预测的是一个实数,而针对分类问题,我..转载 2022-04-11 10:41:06 · 196 阅读 · 0 评论 -
pytorch中.data()与.item()
pytorch中.data()与.item() - Guang'Jun - 博客园1..data()将变量(Variable)变为tensor,将requires_grad设置为Flasea = torch.tensor([1.0], requires_grad=True)b = a.dataprint(b, b.requires_grad)## 输出为: tensor([1.]) False2..item()a = torch.tensor([1.0], requir.转载 2022-04-10 16:12:47 · 1785 阅读 · 0 评论 -
梯度下降法
参考实现梯度下降算法(GD)和随机梯度下降算法(SGD),输出loss(损失函数)关于Epoch(训练轮数)的图像。1.梯度下降算法算法基本流程:2.随机梯度下降算法参考:PyTorch 深度学习实践 第2讲_错错莫的博客-CSDN博客随机梯度下降法和梯度下降法的主要区别在于:1、损失函数由cost()更改为loss()。cost是计算所有训练数据的损失,loss是计算一个训练函数的损失。对应于源代码则是少了两个for循环。2、梯度函数gradien.转载 2022-04-08 11:51:43 · 143 阅读 · 0 评论 -
神经网络、损失
2.损失CrossEntropyLoss交叉熵,分类问题x越大越好,output里的数越小越好,0.8,0.8,0.9就不好,只有一个高就行0.1,0.7,0.2就好关注input和targets的格式-0.2+ln(e^0.1+e^0.2+e^0.3)原创 2022-04-01 21:16:58 · 1083 阅读 · 0 评论 -
卷积神经网络
对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源。非严格意义上来讲,下图中红框框起来的部分便可以理解为一个滤波器,即带着一组固定权重的神经元。多个滤波器叠加便成了卷积层。图中左边部分是原始输入数据,图中中间部分是滤波器filter,图中右边是输出的新的二维数据。CNN的卷积核通道数 = 卷积输入层的通道数;CNN的卷积输出.转载 2022-04-01 10:37:20 · 128 阅读 · 0 评论 -
pytorch学习(二)
1.logistic回归实战转载 2022-03-29 15:27:55 · 576 阅读 · 0 评论 -
pytorch学习(一)
day1dir()函数,工具箱以及工具箱中分隔区有什么help()函数,工具的使用方法import torchdir(torch)dir(torch.cuda.is_available())help(torch.cuda.is_available)转载 2022-03-28 17:48:17 · 2260 阅读 · 0 评论 -
张量的认识
PyTorch是一个Python包,提供两个高级功能:具有强大的GPU加速的张量计算(如NumPy) 包含自动求导系统的的深度神经网络1.何为张量参考:什么是张量? - 知乎矩阵可以进行各种运算为了方便存储矩阵及进行矩阵之间的运算,大神们抽象出了PyTorch库,PyTorch库中有一个类叫torch.Tensor,这个类存储了一个矩阵变量,并且有一系列方法用于对这个矩阵进行各种运算。上面的这些矩阵运算都可以通过torch.Tensor类的相应方法实现。import tor...转载 2022-03-25 10:48:12 · 250 阅读 · 0 评论