自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

转载 NLP-BLEU评估方法

2019-06-29下午 cs224n assignment4 一篇博客 nltk接口

2019-06-29 14:36:30 561

原创 pytorch- .masked_fill_

masked_fill_(mask, value) 掩码操作 Fills elements of self tensor with value where mask is one. The shape of mask must be broadcastable with the shape of the underlying tensor. 参数 mask (ByteTensor) – the b...

2019-06-29 11:56:31 4972

原创 pack/pad_packed_sequence

2019-06-29上午 cs224n assignment4 A 为什么要进行pack?!就是对pad_token的删除及填充操作,避免rnn计算不必要的pad-token 1,pack_padded_sequence(删去pad-token)-官网链接 1_a,具体形式 torch.nn.utils.rnn.pack_padded_sequence(input, lengths, batch_...

2019-06-29 11:27:12 1090 2

原创 pytorch.unsqueeze及bmm函数

2019-06-28晚 cs224n-winter2019-assignment4 用pytorch实现seq2seq-attention NMT Model(神经机器翻译模型) unsqueeze a = torch.randn(5,4) for i in range(-3,3): b = torch.unsqueeze(a,dim=i) print('{} _th size:{...

2019-06-28 23:14:29 1547

转载 pytorch随机张量

吐槽torch,这些基础的照搬numpy就可以了,没必要另起炉灶了吧 转载(https://blog.csdn.net/manduner/article/details/87343269)

2019-06-28 19:47:59 2079

原创 Dropout算法

刚接触深度学习的时候觉得dropout很简单,参数太多,随便挑几个扔了呗这样就可以防止过拟合。 我所没有想到的是:在训练中中进行的dropout并不是真正的drop,它只是在每个激活层激活之前设置了一个随机过滤器,不去计算这些参数,但事实上这些参数在接下来的测试步骤中并没有被扔掉! 缩放! 下面是cs224n第五课的作业 可以去参考的博客 ...

2019-06-24 21:03:56 1904

原创 CS224n-2019 课后作业1 及答案【个人】

作业链接 答案(欢迎指出不足) Question 1.1: Implement distinct_words [code] (2 points) # ------------------ # Write your implementation here. temp = [] for i in corpus: for k in i: ...

2019-06-14 12:26:49 2400 2

原创 反向传播---来自stanford :)

转载一篇好文章 深度学习的BPTT反向传播梯度求导目前还是没有看明白

2019-06-10 10:21:29 403

原创 CNN学习日志

LeNet-5 模型给我的初体验非常不好,目前为止还没有实际的感觉到卷积的优点,或者是LeNET-5的优点,以下是完整训练代码:卷积层-池化层-卷积层-池化层-全连接-全连接 这里有个问题:学到现在我并不觉得深度学习的合理性很好,大部分观点都是基于日常生活经验就是猜罢了(或许日后会为今天的言论感到惭愧,但我从传统机器学习理论结束之后就觉得因果关系是未来) 代码如下:【来自实战google深度学习框...

2019-06-08 16:09:26 468

原创 GBDT与XGBoost【基于负梯度拟合】的说明

为了不让自己在深度学习的网络里迷失…嗝~~,回顾了一下机器学习 相信大家看到集成学习的时候,类似于adaboost等思路还是挺清晰的,BDT里面的基于拟合残差思想也好理解,但是碰到gbdt时候有点蒙蔽【只针对小白,大佬绕行…】----这怎么就变成了根据损失函数的负梯度拟合呢,(编辑公式有点烦,我就把pad笔记拿上来) 说明:t是更新到第t次的意思,i是样本标记,为什么不写xgboost?,因为x...

2019-06-06 09:44:47 989

转载 tensorflow学习率的指数衰减函数

learning_rate= tf.train.exponential_decay( ) 摘自 博客园

2019-06-05 20:08:31 769

转载 tensorflow中的global_step如何更新的问题

在看各种tensorflow书籍的时候,相信大家看到 global_step = tf.Variable(0,trainable = False) 都很迷惑吧,nmd说的好听当前迭代的轮数但这玩意怎么更新? 源代码又不敢看,心里又痒痒。。。。。。看这里 ...

2019-06-04 13:33:52 1626

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除