CS231n计算机视觉
骑着蜗牛逛世界
只当个人学习记录之用
展开
-
cs231n-----------1、KNN和线性分类、SVM和Softmax损失函数
计算机视觉相关课程使用KNN分类CIFAR-10,32*32像素L1曼哈顿距离最近邻分类图片的问题:数据噪声失真L2:欧式距离超参数选择还有就是深度学习中不常用的交叉验证KNN做图像分类的缺点KNN的维度灾难线性分类模型:为每个类别学习到一个模板线性分类器的弊端损失函数多分类SVM的合页损失函数...原创 2018-08-03 19:54:42 · 711 阅读 · 0 评论 -
cs231n---RNN、图像字幕、注意力机制Attention、梯度消失、爆炸、LSTM
图片字幕注意力机制视觉问答标准RNN的梯度传播方式和存在的爆炸和消失问题为防止梯度消失问题,引出LSTM\GRU原创 2018-08-09 15:15:32 · 1316 阅读 · 0 评论 -
cs231n-----BP反响传播算法
反响传播的梯度乘以本地梯度另一个列子 梯度与三种门的关系向量化反响传播原创 2018-08-05 11:58:31 · 357 阅读 · 0 评论 -
cs231n----CNN卷积
输出大小计算公式每个滤波器的参数池化原创 2018-08-05 17:51:11 · 252 阅读 · 0 评论 -
cs231----目标检测与图像分割
语义分割:只关注像素语义分割思想一 滑动窗口:低效,不是共享重叠版块的共享特征语义分割思想二:全卷积,计算量太大反池化转置卷积分类+定位人体姿势检测(14个关键点定位)目标检测作为回归问题目标检测作为分类问题R-CNNYOLO ...原创 2018-08-09 19:25:24 · 382 阅读 · 0 评论 -
cs231n----经典卷积网络(LeNet-5、AlexNet)
数字识别领域卷积的第一次崛起AlexNet的各层及实现细节ZFNET:在AleXNeT基础上的演进,卷积核的大小改变VGG16\193*3的卷积核个7*7的卷积核的感受野大小一样,都是7*7,但是参数减少很多GoogLENET:网络内部的网络对前一层输出进行并行卷积、级联所有的卷积输出,缺点是计算比较复杂每一层的输...原创 2018-08-05 20:52:44 · 536 阅读 · 0 评论 -
cs231n----训练神经网络(激活函数、数据预处理、权重初始化、批标准化、超参数优化、正则化、迁移学习)
激活函数sigmoid函数的缺点tanhRelu优点Leaky ReluELUMaxout激活函数使用意见数据预处理PCA和白话图片数据的使用意见:通常只做中心化处理,不做标准化方差和PCA、白化权值初始化:具有零均值和1E-2标准偏差的高斯分布批量归一化超参数优化总结优...原创 2018-08-05 21:08:40 · 935 阅读 · 0 评论