7天深度学习-day2-神经网络中的概率

本文介绍了深度学习中概率的概念,包括One-Hot编码的原因,Softmax函数在多类别分类中的应用,以及连续型感知器。重点讨论了交叉熵作为损失函数的重要性,它与最大似然率的关系,以及在模型优化中的作用。同时,提到了激活函数如sigmoid和softmax,并探讨了不同场景下它们的选择和效果。
摘要由CSDN通过智能技术生成

1、离散型与连续性

  • 一条直线能完好分割的数据,就是线性的
  • 如果一条直线不能完好分割的数据,就是非线性的

在非线性的数据里,我们需要借助误差函数(Error Function)来达到目的,误差函数越小,离目标越近。对于优化而言,连续性误差函数比离散型误差函数更好。

那如果将离散型误差函数转变成连续性误差函数了?
- 1.离散性 可以用 0或1来表示,y = 1 if x >= 0 else 0
- 2.连续性 可以用 概率 来表示,sigmoid 函数,公式为: y = 1 / (1 + exp(-x))
- 3.对于离散性的激活函数,我们用 阶跃函数(Step Function)step(Wx + b)
- 4.对于连续性激活函数,我们用 S 函数Sigmoid(Wx + b)

   激励函数,离散的阶跃函数、连续的sigmoid 函数。

 将0,1变成是概率输出,这样给出的不再是是否录取,而且录取的概率是多少。

 

2、多类别分类和 Softmax

对于之前的二分类问题,我们得到的结果要么是1,要么是0。但是如果我们希望有多个类别了?比如:结果是黄色,绿色,还是蓝色?猫,狗,还是老虎?

指数 (exp) 就是对数字进行平方运算,所以结果始终为正数

那如果有多个类别

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值