学习回顾(8.19)

一个月来的学习回顾

从开始准备到今天差不多一个月过去了,对照一下大神们给的意见,来逐条回顾一下自己的学习情况。

先选择方向: 目标检测 分割 视频
A.方向的重要论文 要了解

USC的philkr(http://www.philkr.net/)的还没看,Compressed Video Action Recognition这篇文章是讲视频的动作识别,还没看完。今明两天完成。

B.基础技能
1)代码 对于至少一个框架熟悉 用什么网络 网络效率

a.学习Keras框架:
Keras的底层库使用Theano或TensorFlow,这两个库也称为Keras的后端(backend)。
Keras有两种类型的模型,序贯模型(Sequential)和函数式模型(Model)。

网络层:
常用层(Core):
Dense层(全连接层)、Activation层(激活层)、Dropout层、Flatten层等
卷积层(Convolutional):
Conv2D层
池化层(Pooling):
MaxPooling2D层、AveragePooling2D层
网络配置:
目标函数objectives:
mean_squared_error或mse
mean_absolute_error或mae
mean_absolute_percentage_error或mape
mean_squared_logarithmic_error或msle
squared_hinge
hinge
categorical_hinge
binary_crossentropy(亦称作对数损失,logloss)
logcosh
优化器optimizers:
SGD
RMSprop
Adagrad
Adadelta
Adam
Adamax
激活函数Activations:
softmax:对输入数据的最后一维进行softmax,输入数据应形如(nb_samples, nb_timesteps, nb_dims)或(nb_samples,nb_dims)
elu
selu: 可伸缩的指数线性单元(Scaled Exponential Linear Unit),参考Self-Normalizing Neural Networks
softplus
softsign
relu
tanh
sigmoid
hard_sigmoid
linear
性能评估:
binary_accuracy: 对二分类问题,计算在所有预测值上的平均正确率
categorical_accuracy:对多分类问题,计算再所有预测值上的平均正确率
sparse_categorical_accuracy:与categorical_accuracy相同,在对稀疏的目标值预测时有用
top_k_categorical_accracy: 计算top-k正确率,当预测值的前k个值中存在目标类别即认为预测正确
sparse_top_k_categorical_accuracy:与top_k_categorical_accracy作用相同,但适用于稀疏情况

b.网络:
搭建了最简单的LeNet,进行了MNIST数据集的训练分类。
网络效率尚不清楚。

2)数学

bp :

后向传播算法,伪代码书写、公式推导已熟悉,待强化。

loss 不同的loss及其意义:

接触到的loss:回归中的最小二乘、分类中的交叉熵
其他loss有待了解。

Bp 具体实现 :

待了解

全链接层

作用:将学到的特征映射到样本分类空间。

卷积层

作用:获取图像区域不同类型的特征

池化层

作用:对特征进行融合和抽象

感受野计算

感受野(receptive field,RF)的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。

                RF = 1 #待计算的feature map上的感受野大小
                for layer in (top layer To down layer):
              RF = ((RF -1)* stride) + fsize

stride 表示卷积的步长; fsize表示卷积层滤波器的大小 

batch 为什么可以提高收敛速度

例如将训练数据随机分为8个batch,那么每轮(epoch)训练,会做8次梯度下降,更新8次参数。而传统梯度下降是将所有样本梯度计算之后再更新一次参数。所以mini-batch会提高收敛速度。

dropout 为什么可以防止过拟合

由于失活的神经元无法参与到网络训练,因此每次训练(前向操作和反向操作)时相当于面对一个全新的网络。以含有两层网络,每层有三个神经元的简单神经网络为例,若每层随机失活一个神经元,该网络共可产生9种子网络。根据上述随机失活原理,训练阶段相当于共训练了9个自网络,测试阶段则相当于9个自网络的平均集成(average ensemble)···对于提升网络泛化性效果显著。

基础数学 推导梯度下降法

待了解

C.拿得出手的 case

Reference:

像素分割的数据集:
pascalvoc
coco

经典论文
lenet
alexnet
resnet.
vgg.

目标检测

pytorch

目标检测 yolo fastrcnn fasterrcnn

路径:
A.进阶,过代码

1.先跑case,别人的code别人的数据

2.替换数据

3.数据,代码

B.面试前,过书

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值