吴恩达深度学习1笔记week2——深度学习概论Introduction to Deep Learning

2.1 二分分类 Binary Classification

在这里插入图片描述
在这里插入图片描述

2.2 logistic 回归 Logistic Regression

在这里插入图片描述

2.3 logistic 回归损失函数 Logistic Regression cost function

在这里插入图片描述
损失函数loss function:衡量单一训练样本
成本函数cost function:衡量参数w和b的效果(所有训练样本上)

2.4 梯度下降法 Gradient Descent

在这里插入图片描述
在这里插入图片描述

2.5 导数 Derivatives

在这里插入图片描述

2.6 更多导数的例子 More derivatives examples

在这里插入图片描述
在这里插入图片描述

2.7 计算图(流程图) Computation Graph

在这里插入图片描述
蓝线,从左至右是计算图???

2.8 计算图的导数计算 Derivatives with a Computation Graph

在这里插入图片描述
在这里插入图片描述

2.9 logistic 回归中的梯度下降法 Logistic Regression Gradient descent

在这里插入图片描述

2.10 m 个样本的梯度下降 Gradient descent on m examples

在这里插入图片描述

2.11 向量化 Vectorization

在这里插入图片描述

2.12 向量化的更多例子 More vectorization examples

内置函数:
在这里插入图片描述
在这里插入图片描述

2.13 向量化 logistic 回归 Vectorizing Logistic Regression

在这里插入图片描述

2.14 向量化 logistic 回归的梯度输出 Vectorizing Logistic Regression’s Gradient Computation

在这里插入图片描述
在这里插入图片描述

  • 多次迭代的话,仍需要for循环

2.15 Python 中的广播 Broadcasting in Python

  • 问题的提出
    在这里插入图片描述
    在这里插入图片描述
  • 例子
    在这里插入图片描述
  • 通用规则
    在这里插入图片描述

2.16 关于 python _ numpy 向量的说明 A note on python / numpy vectors

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.17 Jupyter Ipython 笔记本的快速指南 Quick tour of Jupyter/ipython notebooks

在这里插入图片描述

2.18 (选修)logistic 损失函数的解释 Explanation of logistic regression cost function

在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值