1:Regression-case study前半段
李老师,为什么讲机器学习你说半天宝可梦!!完全不知道在说什么
1.
1.步骤
step1:Model
b:贝叶斯
step2:goodness of function
上标:整体,下标:特性
判断好坏用loss function(有多坏)
红色代表非常大蓝色最小
w为负不合理
step3:best function
2.gradient descent
①随机选一个参数位置
②w=w0 loss函数的微分
负:增加w;正:减少w
③w1=w0+ⴄdl/dw0
(ⴄ:learning rate 学习速度)
④计算w1微分……重复直到微分是0出现(有可能在local minima 不一定到global minima)
计算
若2个参数
可以排成gradient
指向是等高线的法向量
L值不一定是越来越小
在saddle point也会停下来,在 plateau会很慢(linear model不用担心)