关于感知机(动手学深度学习10)

本文介绍了深度学习的基础,从最初的感知机开始,探讨其作为二分类模型的工作原理和收敛定理。然后过渡到多层感知机,引入隐藏层和激活函数,解释它们如何解决线性不可分问题。ReLU函数因其计算效率高而成为最常用的激活函数。对于多分类任务,通常使用softmax函数。最后,讨论了sigmoid、Tanh和ReLU三种激活函数的特点和应用。
摘要由CSDN通过智能技术生成

 首先放上学习链接——

10 多层感知机 + 代码实现 - 动手学深度学习v2_哔哩哔哩_bilibili

该章笔记:

一、最初的感知机

最初的感知机由基本线性回归模型组成

 

 

 

 

但是它只能作二分类,即输出0/1;或者说1/-1

与回归比较——回归输出实数

与softmax比较——输出概率 

感知机是如何训练的?

 

关于感知机的收敛定理

(图源视频)

感知机的缺陷: 不能拟合XOR问题、只能产生线性分割面

 二、多层感知机

相比最初的感知机,多层感知机使用了隐藏层激活函数来得到线性模型

隐藏层大小超参数

单隐藏层:

如果作的是单分类---

 

 

如果作的是多分类---

 这里表示三个隐藏层,可以看出每一层隐藏层的计算的输入都是上一隐藏层的输出

对应的,如果是多分类(假设K类)的输出,那么:

 

最后总结一下激活函数:

一、sigmoid函数,它的取值范围是(0,1)

 二、Tanh函数,它的取值范围是(-1,1)

用得比较少

 三、ReLU函数,它的取值范围是max(x,0)

即最小是0、这个函数是最常用的、当不知道用什么的时候可以用这个。

 

总结

  • 之所以,ReLU函数用得最多,是因为它的计算比较方便,前两个函数都是指数运算,指数运算是很贵的。
  • 多分类问题仍然是用softmax来处理

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值