- Regression
- Gradient Descent
一、绪论
机器学习就是找函式。
寻找函式的方法----Gradient Descent
15个知识点。
- Regression:输出一个数值
- Binary Classification:输出值只有Y或N
3. Multi-class Classification:输出值在很多个中选一个
4. Generation:生成
5.Supervised Learning:给机器有label的资料
5. Unsupervised Learning:给机器无label的资料
6. Reinforcement Learning:Reward
7. Transfer Learning:训练集和数据集不一样也能生成
8. 函式的Loss:评判一个函式的好坏
9.
二、Regression(回归)
task:预测PM2.5;预测股票系统;预测自动车;推荐系统;预测出的结果应该是一个数值。
以宝可梦为例(根据十只宝可梦预测CP值):
Step1:Model
y = b + w ⋅ x c p y = b + w \cdot x_{cp} y=b+w⋅xcp
=>Linear model:
y = b + ∑ w i x i y = b + \sum{w_{i}x_{i}} y=b+∑wixi
其中, x i x_{i} xi:input feature(各种不同的属性);
w i w_{i} wi:weight;b:bias
Step2:Goodness of Function
y = b + w ⋅ x c p y = b + w \cdot x_{cp} y=b+w⋅xcp
用 x n x^{n} xn表示第n个object, y ^ n y\hat{}^{n} y^n表示第n个output。
输出是一个数值。
Loss function L:衡量函式多不好,它的input:function;
output:how bad it is.
L ( f ) = L ( w , b ) L(f) = L(w , b) L(f)=L(w,b)
= ∑ n = 1 10 ( y ^ n − ( b + w ⋅ x c p n ) ) 2 =\sum_{n = 1}^{10}(\hat{y}^{n} - (b + w \cdot x_{cp}^{n}))^{2} =n=1∑10(y^n<