deep learning
echo爱毛毛1990
感觉来到了一个新世界啊啊啊
展开
-
文章标题
按顺序背字母表我们都可以,但是如果要求倒着被字母表呢?是不是很困难。有个非常明显的逻辑在里面,我们学习字母表或者歌词并不像储存硬盘那样。我们更擅长从一个字母接着另一个字母的记忆,我们是按照序列(sequence)学习它。就像某种条件记忆,当年有前面的记忆时候才会有下一时刻的记忆。 像关联列表那样存储记忆会非常有效。如果建模成一个短的条件记忆,一些过程/问题/表达/搜索会非常有效。 如果你的数据是翻译 2017-02-08 09:22:04 · 408 阅读 · 0 评论 -
Understanding Deep Image Representations by Inverting Them
核心公式: This paper proposed an optimisation method to invert shallow and deep representations based on optimizing an objective function with gradient descent. 核心:文章提出的是用基于梯度的方法优化一个目标函数来实现浅层和深层表原创 2016-11-01 21:33:41 · 4063 阅读 · 4 评论 -
A Powerful Generative Model Using Random Weights
文章未看,和作者同学在mla会议上交流,大致意思,在Understanding Deep Image Representations by Inverting Them文章基础上,alex-model(vgg?)中的weight为随机值未经训练,得到的重构图甚至比使用训练的vgg中的weight更好。 用途:(Could we do deep visualization using untrain原创 2016-11-07 22:07:05 · 431 阅读 · 0 评论 -
Salient deconvolutional networks
Related work DeConvNets最初用于非监督学习【1】【2】,后被用于可视化【3】。文章【4】基于文章【5】,文章【5】是在先前hog,sift,BoVW或其他一些神经网络表达基础上。【6】学习第二个网络用于第一个网络的inverse。【7,8,9】利用cnn的特性,生成图像confuse them。本文与【10】的工作相似。 近期DeConvNets被用于语义图像分割 [1]原创 2016-11-08 20:04:09 · 644 阅读 · 0 评论 -
GAN与WassersteinGAN代码keras分析
GAN交流qq群: gitbub 代码:https://github.com/tdeboissiere/DeepLearningImplementations 使用mnist数据集。 train_GAN.py: gen_loss = 100 disc_loss = 100 # Start training print("Start原创 2017-02-19 12:15:07 · 8725 阅读 · 0 评论