深度学习
YabDl
这个作者很懒,什么都没留下…
展开
-
coursera deep learning course5 week2
Word embeddings 之前每个单词或字符都采用one-hot向量进行表示,但是任意两个向量之间的点积都为0,即都不相关,无法衡量单词之间的相似度,因此将每个单词表示成dense vector的形式,可以将每一维度都当作单词的一个属性,这样的方法称为word embedding。通过监督学习得到embedding matrix,方法有word2vec,negative sampling,...转载 2018-02-19 21:51:40 · 787 阅读 · 0 评论 -
tensorboard与tf.reset_default_graph()
打开地址问题 在命令行中输入: tensorboard –logdir=’path to log-dicrectory’,然后复制地址去浏览器打开。tf.reset_default_graph()train_x = np.random.randn(200,6)train_y = np.zeros((200,2))train_y[:100,0] = 1.0train_y[100:,1]...原创 2018-03-09 10:52:29 · 3582 阅读 · 0 评论 -
pytorch模型参数理解备忘
模型结构def downsample_basic_block(x, planes, stride): out = F.avg_pool3d(x, kernel_size=1, stride=stride) zero_pads = torch.Tensor( out.size(0), planes - out.size(1), out.size(2), out...原创 2018-06-30 10:52:48 · 4787 阅读 · 2 评论