![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
cs231n
yuki___
这个作者很懒,什么都没留下…
展开
-
cs231n-网络结构
改进:参数太多,所以加一个1*1的卷积层让输入数据的depth下降网络不是越deep越好,主要的原因的deep的网络更难优化,ResNet改善了这个问题。这条和传统网络相比多加入的线使得我们需要学习的模块成了残余项H(x)-x = F(x)。没有FC layer,对于更深的网络,例如:ResNet-50也需要用bottleneck使维度降低。...原创 2019-07-25 15:19:33 · 103 阅读 · 0 评论 -
cs231n-RNN
最后权重W的gradient是所有支路gradient的和encod和decode的过程https://blog.csdn.net/zhaojc1995/article/details/80572098转载 2019-07-26 15:43:09 · 231 阅读 · 0 评论 -
cs231以及迁移学习
Normalization的原因以这个2元分类为例,不normalization的话,loss非常敏感,分类器稍微改变一下,对loss的影响很大。Normalization后问题得到解决。在CNN中我们希望每层都normalization,可以用batch normalizationlearning rate是第一个需要调整的超参数,但当他调好之后再调其他参数 可能对learning r...转载 2019-07-23 15:42:41 · 272 阅读 · 0 评论 -
cs231n-assignment1-two layer nn-心得
c = exp_correct / exp_trans[i]loss_data[i] = float©两个数组做除法,结果也是数组(一维数组),把它直接赋值给另一个数组是无效的。np.zeros_like创建的array是int型的加上dtype=float,转换类型normalization以及向量化# Normalize the data: subtract the me...原创 2019-08-01 14:35:19 · 217 阅读 · 0 评论 -
cs231-assignment2-总结-代码
cs231-assignment2-总结技巧技巧dx是和x形状一样全为0的矩阵,将dx里x>0的位置设为1 dx = np.zeros_like(x, dtype=float) dx[x > 0] = 1把dx的形状变成x的形状 dx = np.reshape(dx, x.shape)batch norm是对特征值归一化,不是对图像归一化计算出来的梯...原创 2019-08-06 16:16:20 · 587 阅读 · 0 评论