机器学习
Nicole_177
这个作者很懒,什么都没留下…
展开
-
吴恩达 【机器学习】第二章 单变量线性回归
1. 模型描述模型变量mmm 代表训练集中实例的数量xxx 代表特征/输入变量yyy 代表目标变量/输出变量(x,y)\left( x,y \right)(x,y) 代表训练集中的实例(x(i),y(i))({{x}^{(i)}},{{y}^{(i)}})(x(i),y(i)) 代表第iii个观察实例hhh 代表学习算法的解决方案或函数也称为假设函数(hypothesis)h...原创 2019-04-04 00:40:49 · 167 阅读 · 0 评论 -
吴恩达 【机器学习】第一章绪论 初识机器学习
吴恩达 【机器学习】第一章绪论 初识机器学习1.欢迎参加机器学习课程2.什么是机器学习定义Tom Mitchell:一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过性能度量值P评判,程序在处理任务T时的性能有所提升。例子机器学习分类...原创 2019-04-02 22:09:21 · 175 阅读 · 0 评论 -
吴恩达 【机器学习】第三章 线性代数回顾
吴恩达 【机器学习】第三章 线性代数回顾3.1 矩阵和向量原创 2019-04-08 16:17:25 · 119 阅读 · 0 评论 -
吴恩达 【机器学习】第七章 Logistic回归
吴恩达 【机器学习】第七章 逻辑回归Logistic Regression7.1 分类Classification预测离散的变量举例证明线性回归不能很好地处理分类问题逻辑回归(Logistic Regression)是解决分类(Classification)问题的一种算法7.2 假设函数逻辑回归,该模型的输出变量范围始终在0和1之间。逻辑回归模型的假设是:hθ(x)=g(θT...原创 2019-04-11 21:45:43 · 159 阅读 · 0 评论 -
吴恩达 【机器学习】第五章 多变量线性回归
吴恩达 【机器学习】第五章 多变量线性回归5.1 多变量假设函数可以写为一个行向量与一个列向量的内积多元线性回归(Multivariate Linear Regression):有 多个 特征 用来预测 值y5.2 多元梯度下降(Gradient descent for multiple variables)5.3 特征缩放(Feasure Scaling):为了使梯度下降得...原创 2019-04-08 21:07:05 · 240 阅读 · 0 评论 -
吴恩达 【机器学习】第八章 正则化
吴恩达 【机器学习】第八章 正则化(Regularization)正则化是为了解决过拟合问题的8.1 过拟合问题(overfitting)underfit:欠拟合;overfit:过拟合过拟合:以多项式理解, xxx的次数越高,拟合的越好(能非常好地适应我们的训练集),但相应的预测的能力(在新输入变量进行预测时)就可能变差。解决办法:丢弃一些不能帮助我们正确预测的特征。可以是手...原创 2019-04-14 17:59:08 · 170 阅读 · 0 评论