机器学习之一(读书笔记)

  • Regression
  • Gradient Descent

一、绪论

机器学习就是找函式。
寻找函式的方法----Gradient Descent
在这里插入图片描述15个知识点。

  1. Regression:输出一个数值
    List item
  2. Binary Classification:输出值只有Y或N

在这里插入图片描述
3. Multi-class Classification:输出值在很多个中选一个
在这里插入图片描述
4. Generation:生成
在这里插入图片描述
5.Supervised Learning:给机器有label的资料
在这里插入图片描述
5. Unsupervised Learning:给机器无label的资料
6. Reinforcement Learning:Reward
在这里插入图片描述
7. Transfer Learning:训练集和数据集不一样也能生成
在这里插入图片描述
8. 函式的Loss:评判一个函式的好坏
在这里插入图片描述
9.
在这里插入图片描述

二、Regression(回归)

  task:预测PM2.5;预测股票系统;预测自动车;推荐系统;预测出的结果应该是一个数值。
  以宝可梦为例(根据十只宝可梦预测CP值):
在这里插入图片描述

Step1:Model
y = b + w ⋅ x c p y = b + w \cdot x_{cp} y=b+wxcp
=>Linear model:
y = b + ∑ w i x i y = b + \sum{w_{i}x_{i}} y=b+wixi
其中, x i x_{i} xi:input feature(各种不同的属性);
w i w_{i} wi:weight;b:bias

Step2:Goodness of Function
y = b + w ⋅ x c p y = b + w \cdot x_{cp} y=b+wxcp
x n x^{n} xn表示第n个object, y ^ n y\hat{}^{n} y^n表示第n个output。
在这里插入图片描述

输出是一个数值。
  Loss function L:衡量函式多不好,它的input:function;
  output:how bad it is.
         L ( f ) = L ( w , b ) L(f) = L(w , b) L(f)=L(w,b)
= ∑ n = 1 10 ( y ^ n − ( b + w ⋅ x c p n ) ) 2 =\sum_{n = 1}^{10}(\hat{y}^{n} - (b + w \cdot x_{cp}^{n}))^{2} =n=110(y^n<

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值