Neural Networks

Neural Networks
—a much better way to learn complex hypotheses even when n is large,compared to algorithm above.

Neuron model
Logistic unit
这里写图片描述
x0 calls bias unit
Sigmoid(logistic) activation function
θ (parameter) calls weights

Neural Network
这里写图片描述

**input layer
hidden layer
output layer**
这里写图片描述
We apply each row of the parameters to our inputs to obtain the value for one activation node.
The +1 comes from the addition in Θ(j) of the “bias nodes”, x0 and Θ0(j). In other words the output nodes will not include the bias nodes while the inputs will.

forward propagation
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
We can then add a bias unit (equal to 1) to layer j after we have computed a(j).
这里写图片描述
more and more complex feaures
这里写图片描述

Multiclass Classification
To classify data into multiple classes, we let our hypothesis function return a vector of values.
这里写图片描述
We can define our set of resulting classes as y:
这里写图片描述
这里写图片描述

L= total no. of layers in network
Sl =no.of units(not counting bias unit) in layer l
K = number of output units/classes


Binary classification
y=0 or 1
1 output unit
Multi-class classification(K classes)
yRk
K(K>=3) output unit


Cost Function
这里写图片描述
这里写图片描述
- the double sum simply adds up the logistic regression costs calculated for each cell in the output layer
- the triple sum simply adds up the squares of all the individual Θs in the entire network.
- the i in the triple sum does not refer to training example i


Backpropagation algorithm
to compute the derivatives

这里写图片描述
这里写图片描述


Unroll

这里写图片描述

这里写图片描述

这里写图片描述


这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述


这里写图片描述
这里写图片描述


Put It Together
这里写图片描述
这里写图片描述
这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值