- 博客(5)
- 资源 (6)
- 收藏
- 关注
原创 Long short-term memory 论文小记
这是Hochreiter(1997)的一篇老论文,我为了一睹lstm的原创遗风而读。本来想看看最朴素最正宗的lstm模型,结果却发现在本文中作者并未提出一种特有的模型。文章很长,并不打算翻译。下面是我的一些总结和见解,纯粹小菜鸟的个人观点,大家多多指正,非常欢迎~首先是这篇文章的动机。作为一篇长文,什么支撑着作者进行这么多的实验,以及这篇文章的重要性有多大,取决于动机。在这里,总结成一句话就是:Ol
2016-09-28 17:12:07 3213 5
原创 Tensorflow踩坑记
这里是踩坑纪录,大家如果想看教程的话请出门右转~从前有个小孩,正在学习TF,一开始,写了个逻辑回归的优化程序:import tensorflow as tfimport numpy as npx=tf.placeholder("float")y=tf.placeholder("float")w=tf.Variable([1.0,2.0],name='w')y_pred=tf.mul(x,w[
2016-09-28 15:38:27 24652 6
原创 torch.nn 小坑和疑惑
在利用lua/torch构建需要共享参数的神经网络时,根据官网,需要对两种情况进行区分。见 https://github.com/torch/nn/blob/master/doc/overview.md 。一种是通过:updateparameters()来更新参数的,另一种是通过:getparameters()来获得flattened的参数,手工进行更新。前者只需要共享网络中的参数,而后者需要共享参
2016-09-21 11:21:09 2895 3
原创 python小技巧——enumerate,operator和Counter
最近看人家的代码,发现了很多python内置的函数和数据结构,可以大大减少我们的代码量(而且人家是优化过的)。python以简介和强大的库著称,要是什么都自己写的话,太不python了。这里介绍常用的能大大提高我们生活幸福度的小技巧
2016-09-12 21:59:03 2312
原创 tensorflow某些函数的小坑(持续更新)
刚刚接触tensorflow,正在跟tutorial学习。英文的官网经常上不了(shadowsocks不太稳定),退而求其次看极客学院翻译的中文教程.看见其中的一些奇奇怪怪的函数,这里mark一下nn.sparse_softmax_cross_entropy_with_logits()这个函数看名字都知道,是将稀疏表示的label与输出层计算出来结果做对比,函数的形式和参数如下:nn.sparse_
2016-09-01 11:56:05 15982 6
tandford Deep learning for NLP lecture3
2015-10-09
standford Deep learning for NLP lecture2
2015-09-30
standford Deep learning for NLP lecture1
2015-09-30
Unity3D地脉迷宫游戏Lost_In_Wild
2013-07-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人