吴恩达深度学习笔记整理
内容为网上博主博文整理,如有侵权,请私信联系。
课程内容:
Coursera:官方课程安排(英文字幕)。付费用户在课程作业中可以获得作业评分,每门课程修完可获得结课证书;不付费可以免费上课、做课后作业,但没有作业评分,结课无法获得课程证书。
网易云课堂:网易引进的正版授权(中英文字幕)。课程完全免费,但没有课后作业,没有课程证书。
课程提炼笔记&作业练习:
吴恩达DeepLearning.ai《深度学习》课程笔记目录总集
Coursera 吴恩达 Andrew Ng,课程作业答案:
目录(课程详细笔记)
下面为博主: 女王の专属领地 整理
原文链接:https://blog.csdn.net/Julialove102123/article/details/80089018
第一门课 神经网络和深度学习(Neural Networks and Deep Learning)
第一周:深度学习引言(Introduction to Deep Learning)
1.1 欢迎(Welcome) 1
1.2 什么是神经网络?(What is a Neural Network)
1.3 神经网络的监督学习(Supervised Learning with Neural Networks)
1.4 为什么神经网络会流行?(Why is Deep Learning taking off?)
1.5 关于本课程(About this Course)
1.6 课程资源(Course Resources)
1.7 Geoffery Hinton 专访(Geoffery Hinton interview)
第二周:神经网络的编程基础(Basics of Neural Network programming)
2.1 二分类(Binary Classification)
2.2 逻辑回归(Logistic Regression)
2.3 逻辑回归的代价函数(Logistic Regression Cost Function)
2.4 梯度下降(Gradient Descent)
2.5 导数(Derivatives)
2.6 更多的导数例子(More Derivative Examples)
2.7 计算图(Computation Graph)
2.8 计算图导数(Derivatives with a Computation Graph)
2.9 逻辑回归的梯度下降(Logistic Regression Gradient Descent)
2.10 梯度下降的例子(Gradient Descent on m Examples)
2.11 向量化(Vectorization)
2.12 更多的向量化例子(More Examples of Vectorization)
2.13 向量化逻辑回归(Vectorizing Logistic Regression)
2.14 向量化逻辑回归的梯度计算(Vectorizing Logistic Regression's Gradient)
2.15 Python中的广播机制(Broadcasting in Python)
2.16 关于 Python与numpy向量的使用(A note on python or numpy vectors)
2.17 Jupyter/iPython Notebooks快速入门(Quick tour of Jupyter/iPython Notebooks)
2.18 逻辑回归损失函数详解(Explanation of logistic regression cost function)
第三周:浅层神经网络(Shallow neural networks)
3.1 神经网络概述(Neural Network Overview)
3.2 神经网络的表示(Neural Network Representation)
3.3 计算一个神经网络的输出(Com