机器学习李宏毅学习笔记2


前言

李宏毅机器学习视频p3学习日志


一、Piecewise Linear

在机器学习的第一步中通过linear models画出的线永远是一条直线,无法画出一条折线/曲线(红线)。Linear models:y=b+∑wj*xj
示例:pandas 是基于NumPy 的一种工具,该工具是为了解决数据分析任务而创建的。
这种来自model的限制叫做Model Bias.
而当x和y的关系很复杂时,为解决linear models,要写一个含有未知参数的函数Piecewise Linear。
在这里插入图片描述
可以把红线看做由一个常量+多个函数组成。
在这里插入图片描述
可以用piecewise linear逼近任何有弧度的曲线,只要点取得够多/合适。每一段piecewise linear都可以用足够多的linear组合而成。
如何画出蓝色曲线:把蓝色线 看做sigmoid function不断逼近的一条线。
函数内容:
在这里插入图片描述在这里插入图片描述
不断调整b、w、c就可以调整出各种样子的sigmoid function。改变w:改变斜率/坡度。改变b:左右移动。改变c:改变高度。
在这里插入图片描述
可以通过
在这里插入图片描述

来写一个linear model。
在这里插入图片描述
i表示第i个sigmoid function。
也可以看做
在这里插入图片描述
向量r=向量b+向量w*向量x。
在这里插入图片描述
而未知的所有参数(W,数值b,向量b,c转置)统称为Θ。

二、LOSS

类似上一篇 ,同样都是计算y和label(真正的)y的差值。L=1/N ∑ 差值。

三、找到使L最小的Θ

Θ=[Θ1,Θ2,Θ3…]T,随机选取一个Θ0
在这里插入图片描述把L对Θi在Θ=Θ0时的微分集合起来叫做gradient,记作g=▽L(Θ0)。把Θ0更新为Θ1、Θ2、Θ3…直到不想做或结束为止。
在这里插入图片描述
实际上,不是一次性把L对Θ中所有变量梯度下降,而是把L随机分为多个batch(部分),每个部分分别计算▽Li(Θi)。对一部分梯度下降叫做update,完成一次对所有batch的叫做1epoch。

也可以不用soft sigmoid代替hard sigmoid。把他看做c*max(0,b+wx1)。这种线叫做Rectified Linear Unit(ReLU),把两个ReLU叠加就成为hard sigmoid。
在这里插入图片描述
在这里插入图片描述
实验结果是ReLU更好,当ReLU个数越多Loss越小。
在这里插入图片描述
通过多次,效果更准。
在这里插入图片描述
这些segmoid/ReLU叫做Neuron(神经元),这些神经元叫做Neural Network。多个hidden layer叫做deep learning。我们只把layers变深不把他变“胖”。
Overfitting现象:在训练过的资料上效果更好,在没看过的资料上预测效果更差。


学习视频地址:https://www.bilibili.com/video/BV13Z4y1P7D7?p=3&vd_source=3a369b537e1d34ff9ba8f8ab23afedec

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值