【吴恩达深度学习】测试 - 课程1 - 神经网络和深度学习

第1周-深度学习简介

【总结】

  1. Scale drives deep learnig progress:Data,Computation,Algorithms

  2. 非结构化数据:图片,音频,文本

  3. R e L U ReLU ReLU (Rectified Linear Unit) 修正线性单元
    ReLU
    相比于其它激活函数来说, R e L U ReLU ReLU有以下优势:

  • 计算梯度简单,梯度下降更快;
  • R e L U ReLU ReLU由于非负区间的梯度为常数,因此能够解决 s i g m o i d sigmoid sigmoid 存在的梯度消失问题,使得模型的收敛速度维持在一个稳定状态;
  • R e L U ReLU ReLU会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生。

第2周 神经网络基础

【总结】

  1. 神经元节点先计算线性函数( z = W x + b z = Wx + b z=Wx+b),再计算激活。

  2. l o g i s t i c logistic logistic 回归的loss function:
    在这里插入图片描述
    l o g i s t i c logistic logistic 回归的cost function:
    在这里插入图片描述

  3. 将一个(32,32,3)的数组转换为列向量?

x = img.reshape((32 * 32 * 3, 1))
  1. python中的广播机制(broadcasting)
  • 简单来说,broadcasting可以这样理解:如果你有一个 m ∗ n m * n mn的矩阵,让它加减乘除一个 1 ∗ n 1 * n 1n(或 m ∗ 1 m * 1 m1)的矩阵,它会被复制 m m m (或
  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值