UFLDL Tutorial 课程核心内容提炼-1:神经网络

该课程在斯坦福深度学习课上,点此打开

--------------------------------------------------分割线------------------------------------------------------

一、概述


        训练样本集:\textstyle (x(^ i),y(^ i))

        神经网络算法能够提供一种复杂且非线性的假设模型 \textstyle h_{W,b}(x)

                                        

    上图这个“神经元”是一个以\textstyle x_1, x_2, x_3及截距\textstyle +1 为输入值的运算单元,其输出为\textstyle  h_{W,b}(x) = f(W^Tx) = f(\sum_{i=1}^3 W_{i}x_i +b),其中,为激活函数。这里使用激活函数Sigmoid:


        这个单一“神经元”的输入-输出映射关系其实就是一个逻辑回归(logistic regression)

        Sigmoid图像:

                            

二、神经网络模型

                                   

1.圆圈来表示神经网络的输入;

2.标上“\textstyle +1”的圆圈被称为偏置节点,也就是截距项;

3.神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点);

4.中间所有节点组成的一层叫做隐藏层

5.\textstyle n_l=3(层),将第\textstyle l 层记为\textstyle L_l\textstyle L_1 是输入层,输出层是 \textstyle L_{n_l}

6.神经网络有参数 \textstyle (W,b) = (W^{(1)}, b^{(1)}, W^{(2)}, b^{(2)})\textstyle W^{(l)}_{ij} (下面的式子中用到)是第 \textstyle l 层第\textstyle j 单元与第\textstyle l+1 层第\textstyle i 单元之间的联接参数;

7.\textstyle b^{(l)}_i 是第\textstyle l+1 层第\textstyle i 单元的偏置项;

8.\textstyle W^{(1)} \in \Re^{3\times 3}\textstyle W^{(2)} \in \Re^{1\times 3}

9.\textstyle a^{(l)}_i 表示第\textstyle l 层第\textstyle i 单元的激活值(输出值)。


本例中,(前向传播)计算步骤为:

                


可以记为:

                  
                


给定第 \textstyle l 层的激活值\textstyle a^{(l)} 后,第\textstyle l+1 层的激活值\textstyle a^{(l+1)} 就可以按照下面步骤计算得到:

                    \begin{align}z^{(l+1)} &= W^{(l)} a^{(l)} + b^{(l)}   \\a^{(l+1)} &= f(z^{(l+1)})\end{align}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值