Datawhale深度学习入门task2-线性模型

在训练数据上,误差值比较小

在没有看过的数据上,看起来误差值比较大

通常一个模型的修改,往往来自于对这个问题的理解,即领域知识

这些模型都是把输入的特征 x 乘上一个权重,再加上一个偏置就得到预测的结果,这样的模型称为线性模型(linear model)

1.分段线性曲线

Model Bias:Liner Models have severe limitation.

(图片来自于李宏毅老师的《深度学习详解》)

0+1=左侧红色斜坡

0+1+2=红色两个转折点之间

0+1+2+3=红色最后转折段

也就是,红色线,即分段线性曲线(piecewise linear curve)可以看作是一个常数+加上一堆蓝色的函数。(常数+一堆Function)

综合起来,就能够写非常弹性的Function咯

c_1{}sigmoid(b_1{}+w_1{}x_1{})

sigmoid(r_{i})=\frac{1}{1+e^{-r_{1}}}

2.模型变形

New Model:More Features

i:1 2 3.......no.of features

j:1 2 3...... no.of sigmoid

c:不同的Function

w_{ij}:weight for x_{j} for i-th sigmoid

y=b_1{}+wx_1{}

变为:

y=b+\sum_{i}^{}c_i{}sigmoid(b_i{}+w_i{}x_1{})

y=b+\sum_j{}w_jx_j{}

变为:

y=b+\sum_{i}^{}c_i{}sigmoid(b_i{}+\sum_j{w_{ij}x_1{}})

每个神经元都拟合了一个曲线

为了简化方式,另

r_{1}=b_{1}+w_{11}x_{1}+w_{12}x_{2}+w_{13}x_{3}

r_{2}=b_{2}+w_{21}x_{1}+w_{22}x_{2}+w_{23}x_{3}

r_{3}=b_{3}+w_{31}x_{1}+w_{32}x_{2}+w_{33}x_{3}

......

线性代数,简化成矩阵形式

线性代数方程式:r = b + Wx

a_{i}=sigmoid(r_{i})=\frac{1}{1+e^{-r_{1}}}

a_{i}=sigmoid(r_{i})=\frac{1}{1+e^{-r_{1}}}

3.机器学习框架
  • 9
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值