深度学习
青梅煮酒BX
飞将曾梦居延山,丈夫隐忍且偷安。
匆匆数载征程路,骤雨寒霜境亦难!
轻狂壮志犹未减,滥花争春意何堪。
待到万山憔悴时,独表一枝雪里看!
——咏梅
展开
-
关于动态TensorArray
Offcial website: https://www.tensorflow.org/versions/r1.15/api_docs/python/tf/TensorArray# - To add a vector at each iteration, forms a matrix finally:a = tf.TensorArray(dtype=tf.float32, size=0, dynamic_size=True)def cond_while(i, a): ret原创 2021-11-02 04:30:51 · 149 阅读 · 0 评论 -
DeepMind提出多任务强化学习新方法Distral
选自arXiv机器之心编译参与:蒋思源、黄小天深度强化学习因为复杂的环境而很难进行有效的训练,通常我们会简化环境或使用共享神经网络参数的方法进行多任务学习,但采用这种方法的学习并不稳定。因此 DeepMind 近日发表了一篇论文,并提出了一种用于多任务的联合训练的新方法—Distral(提取&迁移学习)。 论文链接:https://arxiv.org/pdf/1...转载 2018-07-28 13:54:50 · 2780 阅读 · 0 评论 -
DeepMind推出分布式深度强化学习架构IMPALA,让一个Agent学会多种技能
目前,深度增强学习(DeepRL)技术在多种任务中都大获成功,无论是机器人的持续控制问题,还是掌握围棋和雅达利的电子游戏。不过,这些方面的进展仅限于孤立任务。完成每一项任务都要单独调试、训练agent。在最近的工作中,我们研究了如何训练单一agent去执行多种任务。今天,我们发布了DMLab-30。这是一组新任务,包含了在统一视觉环境、通用动作空间(action space)中的多种类型挑...转载 2018-07-28 15:32:13 · 951 阅读 · 0 评论 -
前沿 | 利用遗传算法优化神经网络:Uber提出深度学习训练新方式
在深度学习领域,对于具有上百万个连接的多层深度神经网络(DNN),现在往往通过随机梯度下降(SGD)算法进行常规训练。许多人认为,SGD 算法有效计算梯度的能力对于这种训练能力而言至关重要。但是,Uber 近日发布的五篇论文表明,神经进化(neuroevolution)这种利用遗传算法的神经网络优化策略,也是训练深度神经网络解决强化学习(RL)问题的有效方法。Uber 涉及领域广泛,其中许多领域都...转载 2018-02-17 10:54:09 · 3230 阅读 · 0 评论 -
十个生成模型(GANs)的最佳案例和原理
生成对抗网络(GANs)是一种能“教会”计算机胜任人类工作的有趣方法。一个好的对手能让你成长更快,而GANs背后就是“从竞争中学习”的思路。GANs最先是由蒙特利尔大学的Ian Goodfellow提出,已在图像生成和风格迁移等领域获得了巨大的成功,充分展示了“无监督学习”技术的潜力。GANs是如何工作的?△GAN结构示意图一个GAN中包含两个相互竞争的神经转载 2017-12-02 12:23:31 · 19953 阅读 · 0 评论 -
GAN应用情况
今天我们来聊一个轻松一些的话题——GAN的应用。在此之前呢,先推荐大家去读一下一篇新的文章LS-GAN(Loss-sensitive GAN)[1]。这个文章比WGAN出现的时间要早几天,它在真实分布满足Lipschitz条件的假设下,提出了LS-GAN,并证明了它的纳什均衡解存在。它也能解决generator梯度消失的问题,实验发现不存在mode coll转载 2017-11-03 19:19:31 · 667 阅读 · 0 评论 -
令人拍案叫绝的Wasserstein GAN
在GAN的相关研究如火如荼甚至可以说是泛滥的今天,一篇新鲜出炉的arXiv论文《Wasserstein GAN》却在Reddit的Machine Learning频道火了,连Goodfellow都在帖子里和大家热烈讨论,这篇论文究竟有什么了不得的地方呢? 要知道自从2014年Ian Goodfellow提出以来,GAN就存在着训练困难、生成器和判别器的loss无法指示训练进程、生成转载 2017-11-22 13:35:07 · 386 阅读 · 0 评论 -
斯坦福大学机器学习——交叉验证(Cross Validation)
假设我们需要从某些候选模型中选择最适合某个学习问题的模型,我们该如何选择?以多元回归模型为例:,应该如何确定k的大小,使得该模型对解决相应的分类问题最为有效?如何在偏倚(bias)和方差(variance)之间寻求最佳的平衡点?更进一步,我们同样需要知道如何在加权回归模型中选择适当的波长参数,或者在基于范式的SVM模型中选择适当的参数C?我们假设模型集合为有限集,我们的目的就是从这d个模型转载 2017-11-20 09:20:21 · 1673 阅读 · 0 评论 -
条条大路通罗马LS-GAN:把GAN建立在Lipschitz密度上
最近很多关心深度学习最新进展,特别是生成对抗网络的朋友可能注意到了一种新的GAN-- Wasserstein GAN。其实在WGAN推出的同时,一种新的LS-GAN (Loss Sensitive GAN,损失敏感GAN)也发表在预印本 [1701.06264] Loss-Sensitive Generative Adversarial Networks on Lipschitz Densit转载 2017-11-19 09:01:06 · 939 阅读 · 0 评论 -
受限玻尔兹曼机(Restricted Boltzmann Machine, RBM) 简介
受限玻尔兹曼机(Restricted Boltzmann Machine,简称RBM)是由Hinton和Sejnowski于1986年提出的一种生成式随机神经网络(generative stochastic neural network),该网络由一些可见单元(visible unit,对应可见变量,亦即数据样本)和一些隐藏单元(hidden unit,对应隐藏变量)构成,可见变量和隐藏变量都是二转载 2017-11-04 16:18:26 · 704 阅读 · 0 评论 -
Deep Q Network (DQN)
1. 强化学习和深度学习结合 机器学习=目标+表示+优化。目标层面的工作关心应该学习到什么样的模型,强化学习应该学习到使得激励函数最大的模型。表示方面的工作关心数据表示成什么样有利于学习,深度学习是最近几年兴起的表示方法,在图像和语音的表示方面有很好的效果。深度强化学习则是两者结合在一起,深度学习负责表示马尔科夫决策过程的状态,强化学习负责把控学习方向。 深度强转载 2017-10-27 15:55:32 · 1456 阅读 · 0 评论 -
Deep Reinforcement Learning 基础知识(DQN方面)
文章转自:http://blog.csdn.net/songrotek/article/details/50580904Introduction深度增强学习Deep Reinforcement Learning是将深度学习与增强学习结合起来从而实现从Perception感知到Action动作的端对端学习的一种全新的算法。简单的说,就是和人类一样,输入感知信息比如视觉,然后通过深度神转载 2017-10-18 15:34:06 · 368 阅读 · 0 评论 -
深度强化学习(DQN)实现CartPole
1 前言终于到了DQN系列真正的实战了。今天我们将一步一步的告诉大家如何用最短的代码实现基本的DQN算法,并且完成基本的RL任务。这恐怕也将是你在网上能找到的最详尽的DQN实战教程,当然了,代码也会是最短的。在本次实战中,我们不选择Atari游戏,而使用OpenAI Gym中的传统增强学习任务之一CartPole作为练手的任务。之所以不选择Atari游戏,有两点原因:一个是训练At转载 2017-10-19 09:51:46 · 9867 阅读 · 2 评论