2022吴恩达机器学习deeplearning.ai(七)

本文介绍了模型训练中的关键概念,如LossFunction和CostFunction的区别,以及ReLU和Sigmoid作为隐藏层激活函数的选择。重点讨论了多分类问题和Softmax函数的应用,包括其在自动驾驶等场景中的作用,以及Softmax的改进实现和多标签分类方法。
摘要由CSDN通过智能技术生成

第二周1.2模型训练细节

?lost function&cost function

小结:

Loss Function 是定义在单个样本上的,算的是一个样本的误差。

Cost Function 是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。

Object Function(目标函数 )定义为:Cost Function + 正则化项

2.1  Sigmoid激活函数的替代方案

2.2如何选择激活函数

output layer:根据y选择激活函数

hidden layer:ReLu

2.3为什么模型需要激活函数

3.1多分类问题

划分空间为多决策边界

3.2 Softmax

举例:识别邮编上的数字:一共有0-9共10个输出

softmax是逻辑回归的泛化

3.3神经网络的Softmax输出(输出层函数为softmax)

?仅能取其中一个值时称为稀疏,与上个视频中不同的原因应该是代价函数的表达式

3.4 Softmax的改进实现

本质是减少中间值的计算从而改进舍入误差

3.5多个输出的分类/多标签分类

举例:自动驾驶识别图片中是否有bus/car/person

  • 11
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值