wangshusen学习笔记

wangshusen课程

Keywords:

  1. Parameters:参数 -> 权重 weights(卷积核、参数矩阵…)
  2. Hyper-parameters:超参 -> 搭建神经网络、开始训练之前需要设置的数值;包括 Architecture(网络结构:多少个卷积核、每个卷积核多大、stride大小等)、Algorithm(lr、epochs…)
  3. hyper-parameters + train data = parameters -> accuracy

NAS(Neural Architecture Search):

定义:找到可以得到准确率最高的神经网络结构(或者其他指标更好:比如效率、资源利用…)
eg: ResNet has better accuracy than VGG
MobileNet is more efficient than ResNet but less accuracy.

CNN Architecture

overall

  1. 卷积层数
  2. 一个卷积层中的卷积核大小、stride大小、卷积核数量
  3. 全连接层宽度(输出向量大小)

每个卷积层包括:

  1. 卷积核数量
  2. 卷积核大小
  3. stride

Search Space

超参组合总数(the set containing all the possible architectures)

Hyper-Parameters TypesCandidates
# of filters{24, 36, 48, 64}
size of filters{3x3, 5x5, 7x7}
stride{1, 2}

如果用上述超参搭建20个卷积层可能的组合有(4 * 3 * 2) ^ 20 = 4 x 10 ^ 27种

outcome of NAS

layer1layer2layer20
# of filters244864
size of filters5x53x33x3
stride112

baseline: random search

随机设置超参 --train–> CNN model --evaluate–> val acc
重复该过程多次,选择其中val acc 最好的超参配置
这种方法叫:cross validation 交叉验证

难点:1. 每次尝试消耗巨大;2. search space巨大,尝试数量太小,不容易找到特别好的结构;

NAS: RNN + RL

通过RNN获得CNN Architectures
由于该controller RNN的训练过程不可微,用强化学习训练RNN

难度:计算量巨大 – 需要每次从0开始训练CNN,最后用CNN的val 作为奖励来训练controller RNN

Differentiable NAS

DARTS

并行计算与机器学习

线性回归 linear predictor

并行架构

架构

  1. client-server
  2. peer to peer

实现

  1. MapReduce 架构(google 不开源):同步,cs架构,每个worker全部完成工作后才会进行下一轮;更多用于大数据处理
    – apache hadoop(开源)
    – apache spark (比hadoop快很多)

  2. Parameter Server:异步,cs架构;Ray(推荐的开源系统,better than spark);要求所有work必须比较稳定

  3. Decentralized Network(去中心化网络):peer to peer,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值