动手深度学习 10 多层感知机

文章介绍了感知机的基础概念,包括其作为二分类模型的性质和训练过程。接着讨论了感知机无法解决XOR问题,引出多层感知机的概念,特别是隐藏层和激活函数的作用。激活函数如Sigmoid、Tanh和ReLU被提及,它们在创建非线性模型中的重要性被强调,以适应更复杂的函数拟合。最后,提到了多隐藏层的应用以及Softmax在多分类问题中的使用。
摘要由CSDN通过智能技术生成


前言

笔记笔记

目录

前言

一、感知机

基础定义

二、训练感知机

三、感知机存在的问题

 四、多层感知机

        1.学习XOR

         2.单隐藏层

         3.知识储备——>关于隐藏层的理解

        4.激活函数

                1.Sigmoid函数

                2.Tanh函数

                 3.ReLU函数

        4.多隐藏层

总结



一、感知机

  1. 基础定义

    1. 给定输入 x ,权重 w 和 偏移 b 感知机输出:
    2. 只能做二分类的问题:可输出 1 和 -1 ,线性回归输出实数,softmax输出概率

     

二、训练感知机

理解:初始化w和b为0,然后进行训练,如果出现分类错误,那么就不断更新参数,直到所有都分类正确

三、感知机存在的问题

 感知机不能拟合XOR的函数,他只能对平面进行线性分割

 四、多层感知机

        1.学习XOR

                

 

         2.单隐藏层

                 

         3.知识储备——>关于隐藏层的理解

                

                 神经网络本质上是为了拟合函数

                 中间的 r 为非线性操作 即是隐藏层或激活函数 

                 L 为线性操作

x—线性操作 L1—>y_{1} = w_{1}x + b_{1} —非线性操作 r—>r\left ( w_{1}x + b_{1} \right )—线性操作 L2—>w_{2}\times r\left ( w_{1}x + b_{1} \right ) + b_{2}

                 关于激活层不能为线性函数的原因:

                        1. 激活层存在的意义是为了更好的拟合函数,使函数有更多的特性。同时,对于有的f(x)不便于直接表达出来,这时后,使用隐藏层来表示

                        2.如果激活层为线性函数,其实本质上还是对函数做线性操作,这样,隐藏层就没有存在的意义了

        4.激活函数

                1.Sigmoid函数

               

                 

                2.Tanh函数

                        将输入投影到(-1,1)

                         

                 3.ReLU函数

                        

        4.多隐藏层

                


总结

  • 多层感知机使用隐藏层和激活函数得到非线性模型
  • 常用激活函数为Sigmoid , Tanh , ReLU
  • 使用 Softmax 来处理多分类
  • 超参数为隐藏层个数个隐藏层大小
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值