【Deep Learning with Python】C2 RELU & Loss & Early stop

我主要还是回忆起大量的理论知识。

RELU,有什么用

关于relu

1. 最重要的特点,负值归零,其余就是最简单的线性函数

2. 不要relu,那么神经网络再深,解空间依然没有变大,相当于最简单的逻辑回归

3. 最简单的线性函数却达到了非线性的效果。

Loss Function,损失函数怎么选

损失函数容易忘记,简单的回忆一下。

mse均方差

典型的应用如回归任务,大概就是计算最小的欧氏距离。对于数值型回归任务非常有用,相反,对于分类问题,比如0、1分类就没什么用,对于softmax多概率问题,也效果不是很好。

categorical_crossentropy多分类交叉熵

这个容易忘,大致就是只计算目标分类的概率,详细可以参考1. Softmax交叉熵。对于这种多分类概率,已经证明,这种交叉熵的方式更加好用。

至于二分类交叉熵,稀疏交叉熵都是变种。

Early Stop,一种调参的方法

epoch-accepoch-loss

准确来说,这个方法涉及到epoch-acc,epoch-loss的分析,太久没见我几乎忘了这么有用的方式。

 

plot系列

defplot_loss(loss,val_loss,epoch=20):

epochs=range(1,epoch+1)

plt.plot(epochs,loss,'bo',label='Tainingloss')

plt.plot(epochs,val_loss,'b',label='Validationloss')

plt.title('Trainingandvalidationloss')

plt.xlabel('Epochs')

plt.ylabel('Loss')

plt.legend()

plt.show()

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值