![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
torch随笔
SumFunction
这个作者很懒,什么都没留下…
展开
-
基础卷积网络训练手写识别
利用最基础的卷积神经网络训练手写识别本文利用pytorch搭建了一个最基础的卷积神经网络来训练手写识别其卷积网络如下第一次经过channle为10 卷积核大小为55的卷积操作第二次经过一次卷积核为22的maxpool池化操作第三次经过channel为20 卷积核大小为55的卷积操作第四次经过一次卷积核为22的maxpool池化操作最后将该map打平,其特征有320个经过一个全连接层线性输出10个输出值具体代码如下导入本地minist数据集并转化为numpy形式import torch原创 2021-05-08 19:43:12 · 96 阅读 · 0 评论 -
一些训练过程中意想不到的报错
一些训练过程中意想不到的bugRuntimeError: mat1 dim 1 must match mat2 dim 0这个报错原因是连接层维度不匹配,全连接神经网络中 dim一般为2第0维为样本数 第1维为特征数 当时因为报这个错是因为做一个线性预测,而特征数只有1个 一次batch-size的训练tensor的shape为[batch-size],这维度会报错,需要view成[batch-size,1],其中1是特征数...原创 2021-05-06 15:41:27 · 756 阅读 · 0 评论 -
torch常用损失函数使用心得
torch的交叉熵函数坑点nn.CrossEntropyLoss(pred,label)该模块提供的交叉熵函数第一个参数注意点该函数已经帮我们做了softmax操作和log操作所以针对预测值pred我们只要输入对应的原始值第二个参数注意点1、 label标签值 我们不需要做one-hot编码 输入原始编号即可2、label只支持一维tensor 也就是说一次batch-size训练中有[batch-size,1]数据 我们需要把label变为[batch-size]的一维label3、第二原创 2021-05-05 23:55:43 · 114 阅读 · 0 评论 -
torch.autograd.grad与w.backward区别
torch.autograd.grad与w.backward区别作用:两者都是求解参数在某点的梯度值autorgrad.grad参数为 第一个:目标函数 第二个:待求解的自变量参数backward不需要传入参数,只需要直接调用他 由待求解的自变量参数tensor调用二者主要区别:autorgrad.grad返回值为参数的梯度信息tensorbackward没有返回值,它将梯度信息自动保存到原来自变量参数tensor的grad属性中...原创 2021-05-03 08:25:59 · 642 阅读 · 0 评论