- 博客(3)
- 收藏
- 关注
原创 Batch Normalization
1. 背景 首先来看看归一化之前和归一化之后的代价函数示意图,左边的最归一化之前,右边为归一化之后,最中间的点为我们要优化的最优点(图片来自Andrew最新deeplearning.ai改善深层神经网络课程的1.9 Normalizing inputs)。 我们可以看到,在归一化之前,不同的特征的取值范围可能有所不同,这样带来的不好的地方就是在进行梯度下降的时候,学习率不能够设置太大
2017-09-18 22:31:22 1201
原创 浅谈Attention-based Model【源码篇】
转载请标明出处:http://blog.csdn.net/wuzqchom/article/details/77918780此为本人阅读tensorflow源码的记录,主要在一些步骤上加了一些注释和少许个人理解,如有不足之处,请予指正。 计划分为三个部分: 浅谈Attention-based Model【原理篇】 浅谈Attention-based Model【源码篇】 浅谈Attentio...
2017-09-09 22:54:19 11976 1
原创 Python切片赋值操作
1. 问题首先来看一小段列表推到的python代码a = [1,2,3]b = a# 赋值1b[:] = [x+1 for x in a]print(a,b)# 赋值2b = [x-1 for x in a]print(a,b)来看看输出吧:[2, 3, 4] [2, 3, 4][2, 3, 4] [1, 2, 3]可能有人会有疑问,为什么同样是复制操作,结果却不同?2. step
2017-09-09 20:53:28 6646
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人