[笔记]飞浆PaddlePaddle-百度架构师手把手带你零基础实践深度学习-21日学习打卡(Day 4)

[笔记]飞浆PaddlePaddle-百度架构师手把手带你零基础实践深度学习-21日学习打卡(Day 4)

logo

(Credit: https://gitee.com/paddlepaddle/Paddle/raw/develop/doc/imgs/logo.png)


配置网络

多层神经网络(MLP)

  • 基础模型:神经网络
    • 输入层 + 隐含层 + 输出层,非线性变换Sigmoid

卷积神经网络(CNN)

  • 卷积神经网络
    • 卷积层:局部视野 + 参数共享
    • 池化层:保留主要特征
    • 更善于处理图像的网络
  • 飞桨提供直接实现的API
    • Conv2D, Pool2D

损失函数

修改损失函数,需要修改的代码部分:

  • 数据处理部分
  • 网络定义部分
  • 训练过程部分

优化算法:主流优化算法的原理和效果

  • SGD: 每次训练少量数据,抽样偏差导致参数收敛过程中震荡
    optimizer = fluid.optimizer.SGDOptimizer(
    	learning_rate=0.01, parameter_list=model.parameters()
    )
    
  • Momentum: 引入物理动量的概念,积累速度,减少震荡
    optimizer = fluid.optimizer.MomentumOptimizer(
    	learning_rate=0.01, momentum=0.9, parameter_list=model.parameters()
    )
    
  • AdaGrad: 学习率逐渐下降,依据各参数变化大小调整学习率(不同参数不同)
    optimizer = fluid.optimizer.AdagradOptimizer(
    	learning_rate=0.01, parameter_list=model.parameters()
    )
    
  • Adam: 融合Momentum和AdaGrad的思想 -> 理论最合理的未必在具体案例中最有效,模型调参是必要的
    optimizer = fluid.optimizer.AdamaxOptimizer(
    	learning_rate=0.01, parameter_list=model.parameters()
    )
    
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值