Cousera - Machine Learning - 课程笔记 - Week 4

2018年9月版本

Week 4

非线性假设函数 Non-linear Hypothesis

  • 对于图像这类非线性回归问题,使用逻辑回归会引入大量的特征项(二次、三次项),进行回归拟合会非常困难

神经元与大脑 Neurons and the Brain

  • 一种试图模拟大脑的算法

神经网络模型表示

神经元模型:逻辑单元

  • 获得输入信息,经过计算处理后,得到输出

  • 对于一个神经元,其输入可能存在一个偏置单元,其值恒等于1,部分情况下会被省略

  • θ,参数,在神经网络中有时也被称为权重

神经网络

  • 一组神经元组合到一起的模型
  • 第一层,输入层,输入特征项
  • 中间一层,隐藏层,隐藏层数值不会在训练集中得到,通常情况下,模型中会有超过一层隐藏层
  • 第三层,输出层,该层神经元计算得到最终输出值
  • a i ( j ) a_i^{(j)} ai(j),j层第i个单元的激活值
  • Θ ( j ) \Theta^{(j)} Θ(j),控制由j层到j+1层的权重矩阵
  • 上述模型的计算过程如下:
    KaTeX parse error: No such environment: align* at position 7: \begin{̲a̲l̲i̲g̲n̲*̲}̲ a_1^{(2)} = g(…
  • 如果一个网络在j层有 s j s_j sj个单元,在j+1层有 s j + 1 s_{j+1} sj+1个单元,那么 Θ ( j ) \Theta^{(j)} Θ(j)的维数为 s j + 1 × ( s j + 1 ) s_{j+1} \times (s_j+1) sj+1×(sj+1)(加1是因为存在偏执单元而图上未标出,即算式中的0下标单元)

正向传播及其向量表示 Forward Propagation Vectorized Implementation

  • 记输入层 x = a ( 1 ) x=a^{(1)} x=a(1)
  • z ( 2 ) = Θ ( 1 ) a ( 1 ) z^{(2)}=\Theta^{(1)}a^{(1)} z(2)=Θ(1)a(1),这一步的时候需要加入偏执节点 a 0 ( 1 ) a^{(1)}_0 a0(1)
  • a ( 2 ) = g ( z ( 2 ) ) a^{(2)}=g(z^{(2)}) a(2)=g(z(2))
  • z ( 3 ) = Θ ( 2 ) a ( 2 ) z^{(3)}=\Theta^{(2)}a^{(2)} z(3)=Θ(2)a(2),这一步的时候需要加入偏执节点 a 0 ( 2 ) a^{(2)}_0 a0(2)
  • h Θ ( x ) = a ( 3 ) = g ( z ( 3 ) ) h_{\Theta}(x)=a^{(3)}=g(z^{(3)}) hΘ(x)=a(3)=g(z(3))

其他网络架构 Architectures

  • 架构,即神经元之间是以何种形式链接的

  • 每一层在做的事情实际上是完全一样的

多元分类 Multiclass Classification

  • 神经网络在多元分类中的应用

多个输出单元的处理 One-vs-all

  • 对于n个类别的分类任务,将输出(真实值)处理成一个n元的列向量,对应的类别值为1,其余为0
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值