UFLDL阅读笔记1—Multi-Layer Neural Network

本文是UFLDL教程的第一部分,主要介绍了多层神经网络的基础知识。内容包括神经网络模型的定义,单个神经元的运作原理,激活函数的种类如sigmoid、tanh和rectified linear,以及前向传播表达式。此外,还概述了神经网络的参数表示,如权重矩阵W和偏置b,并简要提及了成本函数在回传算法中的作用。
摘要由CSDN通过智能技术生成

背景

问题

有一组数据形式为 (x(i),y(i)) ,其中 x 是输入的向量,神经网络可以去非线性地拟合这组数据,其形式为 hW,b(x) ,其中的参数有 W,b

单个神经元

  1. 示意图
    这里写图片描述
  2. 实质
    先把输入向量 x 的各个分量进行线性组合加一个偏移成为 ni=1Wixi+b ,再将这个结果通过activation function f ,就会得到单个神经元的输出 hW,b(x)
    • activation function
      常见的activation function有3种类型:
      • sigmoid f(z)=11+exp(z)
      • tanh f(z)=tanh(z)=ezezez+ez
      • rectified linear f(z)=max(0,x)

3个函数的图像如下:
这里写图片描述

Neural Network model

定义

单个神经元结构分层全链接。其中,最左边为input layer,最右边是output layer ,中间是hidden layer ,层内标注为“+1”的节点表示的是一个偏移量,叫做bias units 。以下是一个简单的神经网络模型
这里写图片描述

参数说明

其实任意两个节点之间的连接线上都对应了一个参数,每层都是上一层的线性组合作为输入传到下一层,因此每层配有各自的 W,b 来代表这一层的权重,其中 W 表示普通节点上的权重,b代表bias unit的权重。这个简单网络有3层,我们用上标代表层数,因此有两组这样的参数 (W,b)=(W(1),b(1),W(2),b(2)) .
- 对于每两层之间的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值