元学习gradient descent as LSTM(2)--李宏毅老师课程学习笔记

我们发现meta learning中的结构与RNN比较相似,具体看下面两篇论文是讲这个的。
在这里插入图片描述
RNN是用同一个单元去处理很长的句子,因为每次只吃一个单词。数据再长,也不会增加模型的参数。
在这里插入图片描述
现在基本用LSTM,通过结构发现Ct的特殊,同时由于它改变较慢,因此LSTM能够储存较长之间之前的词。
在这里插入图片描述
复习一下LSTM:
在这里插入图片描述
在这里插入图片描述
这个图和上面的图进行对比,是LSTM的简化版。
在这里插入图片描述
如果把sita t-1 的loss用来更新zi,那么可以多样地调整学习率。

实际的时候,一个LSTM用在所有的参数中。
在这里插入图片描述
在这里插入图片描述
以前的方法都会用以前的梯度,那我们是不是也能这样。下面的结构在论文中是没有的,在learning to learn by gradient descent by gradient descent论文中,有下面的关于保留之前梯度的内容,但是在sita的时候,只是简单地做了一下更新。
在这里插入图片描述
下面看一下实验结果,看下图中,因为minist数据集的话,做meta learning 意义不大。因此train 20个unit test 40个unit 的对比,以及test 2 layer 的对比,效果都很好。但是当train 是sigmoid ,test是relu函数时,效果就差了。
在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值