![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
李奥去哪了
秦人不暇自哀,而后人哀之;后人哀之而不鉴之,亦使后人而复哀后人也。
展开
-
pytorch实现RNN,majing论文的谣言检测
RNN实现谣言检测遇到的问题:数据处理篇模型搭建和数据提取篇--------更新时间-------2019/06/08人真的可以生如蚁,而美如神!时间不多,废话少说!先处理数据!遇到的问题:训练时,loss总是在几个数之间,每一轮训练的精度都是一样的!这个问题我刚开始以为是模型的weigth和bias没有更新,导致每次训练都是固定的参数在跑,结果打印可更新的参数,发现所以,排除了这...原创 2019-06-18 15:11:44 · 3678 阅读 · 22 评论 -
pytorch nn.conv2d卷积的运算测试
人可以生如蚁,而美如神!测试conv2d的操作,理清思路首先,我们看看conv2d的官方说明,请点击这里!中文官网下面我主要是想弄清楚conv2d(3,5,(不重要),不重要)这样的操作,也就是多通道的卷积到底是怎么做的,这个函数是如何将3通道的矩阵弄成5通道的矩阵,为了验证我的猜想,我决定实验。实验代码如下import torch.nn as nnimport torch#2019...原创 2019-07-27 18:03:12 · 1066 阅读 · 0 评论 -
note GAN model
GAN模型笔记首先理清楚loss.backward()只要tensor的属性requires_grad=True,说明这是一个叶子节点,可以对其求导数。神经网络往往先要进行forward()一次,得到结果,然后由结果backward()反向求各参数的导数,并将结果保存在tensor.grad.data这里,这就是我们求导δlossδw \frac{\delta loss}{\delta w}...原创 2019-09-10 19:11:01 · 143 阅读 · 0 评论