tensorflow 笔记:五( 北大)

目录

 

优化

概述

神经元模型

激活函数

 层数和参数的计算


优化

概述

神经元模型

 

激活函数

 层数和参数的计算

 

优化目标

损失函数 loss

自定义loss

自定义的tf代码

 

 

CE(cross entropy)越大,概率分布越远,vice versa。

CE中需要让概率归一化,使用的函数是softmax(),

 

 

学习率 learning_rate

 

learning rate的tensorflow代码

learning rate的大小设置问题

 一种动态的learning rate,即指数衰减学习率。

指数衰减学习率的TensorFlow代码

 

滑动平均 ema

 e.g.

tensorflow中描述EMA的语句。

TensorFlow的 EMA 代码

 

 

 

正则化 regularization

regularization 为了解决过拟合的问题,本质就是给权重w 加上权值。

 

模块module matplotlib

 

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值