邱锡鹏 神经网络与深度学习课程【十一】——网络优化与正则化3和注意力机制和外部记忆1

正则化

思考泛化性:重新思考模型复杂度和泛化之间的关系

 所有损害优化的方法都是正则化

 正则化方法:

 δ1和δ2的正则化

 提前停止:

 权重衰减:

 丢弃法:Dropout

 Dropout意义:

 循环神经网络上的丢弃法:要丢都丢

 数据增强:

 标签平滑:

 总结:

注意力机制和外部记忆1

网络能力

 注意力机制:

例子:阅读理解 传统RNN会出问题 :1.长程依赖问题2.模型容量问题

 通用近似定理

 大脑中的注意力:

 

 如何实现?

 人工神经网络中的注意力机制

 注意力模型:软性注意力机制 soft attention mechanism

 注意力打分函数: 双线性模型 带方向 但是 缩放点击模型不带方向

 一些常见的注意力

 注意力模型 :文本分类

 

 机器翻译:

 image caption

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值