============================================================================【课程综述】============================================================================
第一课时:
机器学习的定义【 The Definition of Machine Learning】
本课程的四部分内容:
1)监督学习【The Overview of Supervised Learning】
2)学习理论【The Overview of Learning Theory】
3)无监督学习【The Overview of Unsupervised Learning】
4)强化学习【The Overview of Reinforcement Learning】
============================================================================【监督学习】============================================================================
==================================【监督学习:Linear Regression】======================================================
第二课时:
*线性回归【Linear Regression】:LMS(least mean squares) algorithm
*(批量/随机=增量)梯度下降【Batch/Stochastic=Incremental Gradient Descent】
*常用矩阵符号定义【Matrix Derivative Notation for Deriving Normal Equations】
*标准方程推导【Derivation of Normal Equations】
第三课时:
线性回归的概率解释【The Probabilistic Interpretation of Linear Regression】:LMS~=~MLE(least-squares regression corresponds to finding the maximum likelihood estimate of theta)
*局部加权线性回归【Locally Weighted Linear Regression】:如何定义权重使距离预测点近的样本贡献大,远的样本贡献小。
欠拟合和过拟合【Underfitting and Overfitting】
参数化和非参数化算法【Parametric Algorithms and Non-parametric Algorithms】:Linear Regression是参数化算法;Locally Weighted Linear Regression是非参数化算法
==================================【监督学习:Classification and Logistic Regression】==================================
*Logistic回归【Logistic Regression】
感知器【 Perceptron】
第四课时:
*牛顿方法(找最值)【Newton's Method】
========
第一课时:
机器学习的定义【 The Definition of Machine Learning】
本课程的四部分内容:
1)监督学习【The Overview of Supervised Learning】
2)学习理论【The Overview of Learning Theory】
3)无监督学习【The Overview of Unsupervised Learning】
4)强化学习【The Overview of Reinforcement Learning】
============================================================================【监督学习】============================================================================
==================================【监督学习:Linear Regression】======================================================
第二课时:
*线性回归【Linear Regression】:LMS(least mean squares) algorithm
*(批量/随机=增量)梯度下降【Batch/Stochastic=Incremental Gradient Descent】
*常用矩阵符号定义【Matrix Derivative Notation for Deriving Normal Equations】
*标准方程推导【Derivation of Normal Equations】
第三课时:
线性回归的概率解释【The Probabilistic Interpretation of Linear Regression】:LMS~=~MLE(least-squares regression corresponds to finding the maximum likelihood estimate of theta)
*局部加权线性回归【Locally Weighted Linear Regression】:如何定义权重使距离预测点近的样本贡献大,远的样本贡献小。
欠拟合和过拟合【Underfitting and Overfitting】
参数化和非参数化算法【Parametric Algorithms and Non-parametric Algorithms】:Linear Regression是参数化算法;Locally Weighted Linear Regression是非参数化算法
==================================【监督学习:Classification and Logistic Regression】==================================
*Logistic回归【Logistic Regression】
感知器【 Perceptron】
第四课时:
*牛顿方法(找最值)【Newton's Method】
========