深度学习基础--当前研究的挑战

当前研究的挑战

  1)RNN难以训练。有论文表明大量不同的RNN架构,其表现力是同等的,任何性能上的差异都是由于某些架构比其他架构更容易优化导致的;

  2)无监督难以训练,因为模型的输出通常(但不总是)更大——例如,1024 x 1024像素,巨大的语音和文本序列;

  3)GAN难以训练,但对目标函数进行了修改。原来Jensen-Shannon散度目标的简单修改:最小二乘法,absolute deviation with margin,还有Wasserstein距离;

  4)强化学习难以训练,而且也不稳定!因为优化随机性太强,我们甚至不能用不同的随机种子获得相同的结果;
  遗传算法是训练深度神经网络的一种有效替代方法,DQN、A3C、和进化策略(ES)也可以尝试。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值