机器学习-------神经网络的初步了解

机器学习之神经网络

  • 简介
    最近上课学习了机器学习的神经网络,有些数学原理搞不明白,在这里整理一下,并试图弄懂。

  • 神经网络基本思想
    人工神经网络受动物神经系统的启发,是一种仿生的方法。
    通过多个神经元的连接来实现一个复合函数,完成分类或者回归之类的任务。

  • 一个大佬的链接

  • 感知机(单层前馈神经网络)

    • 单层前馈神经网络,就是只有一个输入层和一个输出层,没有隐含层。
    • 感知机学习算法具有简单而易于实现的优点,分为原始形式和对偶形式。
    • 感知机对于输入空间中将实例划分为正负两类的分离超平面,属于判别模型。
    • 1957年由Rosenblatt提出,是神经网络和支持向量机的基础。(非常重要)
    • 使用基于误分类的损失函数,并利用梯度下降法对损失函数进行极小化。
      (感知机模型大体在我的理解:选初值w和b,然后一个一个的去算他的输入到输出的函数:y(wx+b),然后判断是否小于0,小于0则重取w和b,直至全部输入都为正值,这里是一个循环,最后得到那个w和b就可以形成一个线性模型了,即wx+b,其中w,x都为向量,这个就是分类的那条线或者超平面了。利用这个可以形成感知机模型,加个sign()-----理解可能有误,我尽量用我可以明白的话说出来,以便后面查看)
    • 此外,感知机学习算法还是收敛的,这里没太弄懂,等弄懂再说。
    • 感知机算法的对偶形式:这里只是把w和b迭代取值的公式变了一下。然后换了个字母a(把w换成axy)。
  • 多层前馈型神经网络

    • 输入层的个数与输入层的维数相等。
    • 这里必须有激活函数,保证神经网络的实现不是线性的
  • 正向传播和反向传播(多层前馈型神经网络中的)
    反向传播算法
    其中,在反向传播算法中,需要了解的基础知识有最优化的概念、迭代法的基本思想和梯度下降法。
    反向传播算法的数学思想:链式法则(求偏导)
    其中,具体可看大佬的链接,比我讲的明白多了。。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小小小姝

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值