吴恩达深度学习课程笔记

这篇博客详细记录了吴恩达深度学习课程的内容,包括深度学习的概论,神经网络的基础知识,如Logistic回归的梯度下降法,以及浅层神经网络和深层神经网络的前向传播和反向传播。强调了非线性激活函数的重要性,解释了为什么权重不能初始化为0矩阵,并探讨了超参数的意义。
摘要由CSDN通过智能技术生成

一、深度学习概论

1.什么是神经网络?

由预测房价的例子引出一个基本的神经网络结构:

2.神经网络在监督学习上的应用


结构化数据:每个特征都有着清晰的定义

非结构化数据:如音频、图像、文本等,其每个特征可以是图像中的像素或者文本中的单词。

3.深度学习兴起的原因



二、神经网络基础(以logistic回归为例)

1.一些符号说明及Logistic回归介绍

后面需要用到的一些符号说明:


Logistic回归用于二分类问题,预测输出的概率



右上角的(i)表示第i个训练样本

Logistic回归损失函数的定义及解释(凸的便于优化)

损失函数衡量了在单个训练样本上的表现

成本函数衡量的是在全体训练集上的表现

2.梯度下降法与函数导数

梯度下降法的实现方法



函数导数的介绍(跳过)

3.神经网络的前向传播与反向传播

首先计算神经网络的输出,紧接着进行一个反向传输操作(用来计算对应的梯度或者导数)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值