Deep Learning-- class 1

吴恩达笔记--class 1

  •  
    • classification


      • CNN: image data
      • RNN: one-dimension sequence data, just like: language
    • data
      • structured data: data from database; the feathers are clearly defined
      • unstructured data: audio or images, the text in the picture, things that computer understand more hard.
    • binary classification 二分分类
      • yes or not
      • 1 or 0
    • logistic 回归
      • sigmoid(z)

        • 由于y-hat ∈[0,1], so y-hat 的取值加上sigmoid函数
        • separate w and b
      • 回归损失函数--loss(error) function
        • loss function

        • cost function

      • 优缺点:
        • 优点

        • 缺点

    • gradient descent 梯度下降法
      • want to find w,b that minimize J(w,b)

    • logistic 回归中的梯度下降法
      • y-hat==a~output

      • m个样本的梯度下降

        • d w1~累加器
    • vectorization 向量化显示
      • 为了避免显示的循环 for loop--more and more data but less time

        • np.dot()向量点积
        • whenever possible, avoid explicit for-loops
      • 向量化logistic 回归
        • 两行代码便可以完成--正向

        • 同时计算梯度输出
          • details

      • python~broadcasting
        • eg: 计算营养百分比情况

        • reshape函数用于确保矩阵的尺寸
        • 区别列向量和行向量与秩为1 的数组

    • neural network
      • input layer ~ hidden layer(don't see in training set) ~ output layer
      • w1~(4,3):3个输入,4个输出; w2~(1,4):4个输入,1个输出

      • how to calculate

        • 单个训练样本:
        • 多个训练样本:(P28)
      • activation function
        •  
          • sigmoid(x)【二分类的输出层】
          • tanh(x)
          • ReLU: a=MAX(0,a) [almost] 修正
        • why? 如果都是线性激活函数的话,多层的隐藏层就没有意义,得到的永远是线性结果,所以要引入非线性激活函数。
        • slope ,derivatives 导数
          • sigmoid

          • tanh

          • ReLU or l

      • gradient descent for neural networks
        • 正向和反向

          • 反向理解
        • random initialization
          • if use sigmoid(z) ~~weigh *0.01 希望weigh会小一些

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值