CS231n
文章平均质量分 69
@ZeKing
这个作者很懒,什么都没留下…
展开
-
CS231n神经网络详解(其结构,优化,近年网络实例解析,迁移学习【小dataset】)
神经网络详解加一圈0,pad保持卷积后尺寸不变不加一圈0,尺寸会逐步快速减小总结(卷积层数量计算公式)1*1的滤波器来卷积也是有意义的(因为有深度),一般用奇数(有左右)局部连接性(全局连接太大)每个深度方向(如下5个不同的神经元)都看着输入数据相同的部分,28*28个都在局部空间内寻找垂直的条形(轮廓)以上讲的是卷积层和relu层poling池化层采样(一般向下采...原创 2018-10-14 11:07:13 · 345 阅读 · 0 评论 -
CS231n物体定位和检测
一般流程参考方法一:把定位作为回归问题(很实用可以这样考虑)选择防止回归曾的位置,都可以法二:滑动窗法,如overfeat网络加速(高效)窗口法:不把4096看作向量,而是看作feature map特征映射,那么只剩下卷积和池化操作...原创 2018-10-14 20:28:04 · 556 阅读 · 0 评论 -
cs231n斯坦福基于卷积神经网络的CV学习笔记(一)KNN和线性分类器/分类器损失/反向传播
绪论:随着计算能力和数据量的提高,出现PASCAL和ImageNet高质量的数据集,使得神经网络成为可能(训练)原创 2018-10-08 11:02:55 · 509 阅读 · 0 评论 -
cs231n斯坦福基于卷积神经网络的CV学习笔记(二)神经网络训练细节
五,神经网络实例:逻辑回归二层神经网络训练函数使用权重w和偏差值biase计算出第一个隐含层h,然后计算损失,评分,进行反向传播回去多种常用激活函数(一般默认max(0,x)),如sigmoid函数具有饱和区梯度0,非零点中心,计算x复杂等缺点,max(Relu)函数也有缺点(非中心对称,初始化不佳(如-10)无法激活,注意学习速率不要太高),leaky Relu优化max(0.01x,x...原创 2018-10-08 11:03:39 · 299 阅读 · 0 评论 -
cs231n之KNN-SVM-Softmax-two_layer_net_features总结
文章目录训练分类器流程总结具体分类器代码实现框架 class classifer_name(object):def __init__(self,各类参数):**来初始化W,b**def loss(self,X,y,reg) ----------------return loss,grads1,从(__init__中定义的self.params)参数字典中读取W,b等的值,以及输入X的尺寸"""2,...原创 2019-04-14 10:25:23 · 541 阅读 · 0 评论 -
深度学习python及numpy等第三方包基础
文章目录python deep learning基础一,python 容器类型 1,列表1.1,列表,就是python中的数组,长度可变,且能包含不同类型元素,1.2,切片操作,可用切片方式获取列表中的元素1.3 循环Loops:enumerate 函数访问每个循环元素指针1.4 列表推导List comprehensions,转换数据类型时可以简化代码1.5 List列表常用函数:index(x...原创 2019-04-17 14:48:10 · 1803 阅读 · 0 评论