- 博客(4)
- 收藏
- 关注
原创 Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models
加拿大高级研究所 Ryan kiros, Ruslan Salakhutdinov, Richard S. Zemel 2014 NIPS deep learning workshop1. 主要思想 学习了一个图片-句子 embedding space,以及一个解码这个空间的语言模型2. embedding space如下图结构所示CNN模型学习图片表示,LSTM的最
2018-01-24 23:57:06 2863
原创 Torch 的几个损失函数
初步了解一下,pytorch里面的损失函数及使用方法。如有不对的地方,欢迎指出。谢谢!1. L1LossInput: X、Y可以是任意形状的输入,X与Y的 shape相同。Output: 标量用途:计算X与Y的差的绝对值, 1/n * (|Xi -Yi|)2. MSELossInput: x, y 任意具有相同shape的tensor。Output: 计算均方差3. CrossEntro...
2018-01-19 21:08:21 30237 3
原创 pytorch的batch normalize
torch.nn.BatchNorm1d()1. BatchNorm1d(num_features, eps = 1e-05, momentum=0.1, affine=True)对于2d或3d输入进行BN。在训练时,该层计算每次输入的均值和方差,并进行平行移动。移动平均默认的动量为0.1。在验证时,训练求得的均值/方差将用于标准化验证数据。num_features:表示输入的特征数。该期望输入的
2018-01-19 09:11:39 6839
原创 Review networks for caption generation
注明:欢迎阅读,讨论。转载及参考请注明出处。谢谢~论文连接:https://pdfs.semanticscholar.org/8736/3aa042cc23bfae3c865d9e8c280f5fe67de7.pdf主要思想:attention机制每次只关注到局部,没有考虑全局因素对预测的影响。该文将feature map作为图片的全局信息,然后通过LSTM单元获得一个比feature map更能
2018-01-18 12:50:23 655
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人