- 博客(12)
- 收藏
- 关注
原创 pytorch- .masked_fill_
masked_fill_(mask, value) 掩码操作 Fills elements of self tensor with value where mask is one. The shape of mask must be broadcastable with the shape of the underlying tensor. 参数 mask (ByteTensor) – the b...
2019-06-29 11:56:31 4972
原创 pack/pad_packed_sequence
2019-06-29上午 cs224n assignment4 A 为什么要进行pack?!就是对pad_token的删除及填充操作,避免rnn计算不必要的pad-token 1,pack_padded_sequence(删去pad-token)-官网链接 1_a,具体形式 torch.nn.utils.rnn.pack_padded_sequence(input, lengths, batch_...
2019-06-29 11:27:12 1090 2
原创 pytorch.unsqueeze及bmm函数
2019-06-28晚 cs224n-winter2019-assignment4 用pytorch实现seq2seq-attention NMT Model(神经机器翻译模型) unsqueeze a = torch.randn(5,4) for i in range(-3,3): b = torch.unsqueeze(a,dim=i) print('{} _th size:{...
2019-06-28 23:14:29 1547
转载 pytorch随机张量
吐槽torch,这些基础的照搬numpy就可以了,没必要另起炉灶了吧 转载(https://blog.csdn.net/manduner/article/details/87343269)
2019-06-28 19:47:59 2079
原创 Dropout算法
刚接触深度学习的时候觉得dropout很简单,参数太多,随便挑几个扔了呗这样就可以防止过拟合。 我所没有想到的是:在训练中中进行的dropout并不是真正的drop,它只是在每个激活层激活之前设置了一个随机过滤器,不去计算这些参数,但事实上这些参数在接下来的测试步骤中并没有被扔掉! 缩放! 下面是cs224n第五课的作业 可以去参考的博客 ...
2019-06-24 21:03:56 1904
原创 CS224n-2019 课后作业1 及答案【个人】
作业链接 答案(欢迎指出不足) Question 1.1: Implement distinct_words [code] (2 points) # ------------------ # Write your implementation here. temp = [] for i in corpus: for k in i: ...
2019-06-14 12:26:49 2400 2
原创 CNN学习日志
LeNet-5 模型给我的初体验非常不好,目前为止还没有实际的感觉到卷积的优点,或者是LeNET-5的优点,以下是完整训练代码:卷积层-池化层-卷积层-池化层-全连接-全连接 这里有个问题:学到现在我并不觉得深度学习的合理性很好,大部分观点都是基于日常生活经验就是猜罢了(或许日后会为今天的言论感到惭愧,但我从传统机器学习理论结束之后就觉得因果关系是未来) 代码如下:【来自实战google深度学习框...
2019-06-08 16:09:26 468
原创 GBDT与XGBoost【基于负梯度拟合】的说明
为了不让自己在深度学习的网络里迷失…嗝~~,回顾了一下机器学习 相信大家看到集成学习的时候,类似于adaboost等思路还是挺清晰的,BDT里面的基于拟合残差思想也好理解,但是碰到gbdt时候有点蒙蔽【只针对小白,大佬绕行…】----这怎么就变成了根据损失函数的负梯度拟合呢,(编辑公式有点烦,我就把pad笔记拿上来) 说明:t是更新到第t次的意思,i是样本标记,为什么不写xgboost?,因为x...
2019-06-06 09:44:47 989
转载 tensorflow中的global_step如何更新的问题
在看各种tensorflow书籍的时候,相信大家看到 global_step = tf.Variable(0,trainable = False) 都很迷惑吧,nmd说的好听当前迭代的轮数但这玩意怎么更新? 源代码又不敢看,心里又痒痒。。。。。。看这里 ...
2019-06-04 13:33:52 1626
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人