deeplearning.ai - 深层神经网络(Deep Neural Networks)

神经网络和深度学习
吴恩达 Andrew Ng

深层神经网络(Deep Neural Networks)

Deep L-layer Neural Networks

  • 有一个隐藏层的神经网络,就是一个两层神经网络
  • 算神经网络的层数时,只算隐藏层和输出层,输入层看作第0层
  • 有一些函数浅层的网络学习不了

Forward propagation in a deep network

这里写图片描述

Getting your matrix dimensions right

  • W[l]:(n[l],n[l])b[l]:(n[l],1) W [ l ] : ( n [ l ] , n [ l − ] ) b [ l ] : ( n [ l ] , 1 )
  • A[l]:(n[l],m)Z[l]:(n[l],m) A [ l ] : ( n [ l ] , m ) Z [ l ] : ( n [ l ] , m )
  • 确保前后矩阵一致

Why deep representations?

  • 登堂入室
  • 边缘探测器针对小区域
  • put together simpler things that has detected in order to detect more complex things
  • Circuit theory (电路理论)
  • There are some functions that you can compute with a L-layer deep neural network while shallower networks require exponentially more hidden units to compute.
  • 对于有些函数深层网络更合适

Forward and backward functions

  • 这里写图片描述

  • backward propagation
    这里写图片描述

  • summary
    这里写图片描述

  • lots of complexity of your learning algorithm comes from the data rather than your code

Parameters and Hyper parameters

  • parameters(参数): W, b
  • hyper parameters(超参数) (determines the parameters)
    • learning rate
    • the number of iterations of gradient descent
    • the number of hidden layers
    • choice of activation function
  • 不断实验,找到合适的超参数 cycle of (Idea, Code, Experiment)
  • just try a few values for the hyper parameters and double check

Deep learning and the human brain

  • Today even neuroscientists have almost no idea what even a single neuron is doing.
  • 这里写图片描述
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值