机器学习
参考文献
目录
一、吴恩达深度学习
二、Bubbliiiing的语义分割
《神经网络与深度学习》 | 笔记列表 |
---|---|
week1 | 深度学习引言(Introduction to Deep Learning) |
week1传送门 | 1.1 欢迎(Welcome) 1.2 什么是神经网络?(What is a Neural Network) 1.3 神经网络的监督学习(Supervised Learning with Neural Networks) 1.4 为什么神经网络会流行?(Why is Deep Learning taking off?) 1.5 关于本课程(About this Course) 1.6 课程资源(Course Resources) 1.7习题 |
week2 | 神经网络的编程基础(Basics of Neural Network programming) |
week2传送门 | 2.1 二元分类(Binary Classification) 2.2 逻辑回归(Logistic Regression) 2.3 逻辑回归的代价函数(Logistic Regression Cost Function) 2.4 梯度下降法(Gradient Descent) 2.5 导数(Derivatives) 2.6 更多的导数例子(More Derivative Examples) 2.7 计算图(Computation Graph) 2.8 使用计算图求导数(Derivatives with a Computation Graph) 2.9 逻辑回归中的梯度下降(Logistic Regression Gradient Descent) 2.10 m 个样本的梯度下降(Gradient Descent on m Examples) 2.11 向量化(Vectorization) 2.12 向量化的更多例子(More Examples of Vectorization) 2.13 向量化逻辑回归(Vectorizing Logistic Regression) 2.14 向量化 logistic 回归的梯度输出(Vectorizing Logistic Regression’s Gradient) 2.15 Python 中的广播(Broadcasting in Python) 2.16 关于 python _ numpy 向量的说明(A note on python or numpy vectors)参考视频: 2.17 Jupyter/iPython Notebooks快速入门(Quick tour of Jupyter/iPython Notebooks) 2.18 (选修)logistic 损失函数的解释(Explanation of logistic regression cost function) |
语义分割 | |
---|---|
1 | Pytorch 搭建自己的PSPNet语义分割平台 |