深度学习基本概念(李宏毅机器学习课程笔记2)

一.因为linear model效果并不是很好,所以优化它成:

红色的就是优化后的model,它可以由一个常数+好多个linear model组成。

二.sigmoid函数

进一步推广写出红色的函数:

由n个蓝色的sigmoid相加再加上一个常数。

再推广一下进阶的linear model就是笔记一里面最后写的,考虑更多天数的linear model:

就可以写成r=b+矩阵*x

最后写出y:

三.定义loss

L(\theta)    \theta代表所有未知的超参数组成的一个大的向量。

跟笔记一的方法一样,将所有未知的超参数带入,在和label准确值求e,最后相加除以数据量总数N即为loss

四.优化

\theta分别求微分,再组合成向量g,跨度后的向量即为原来的\theta减去学习率×g

但是实际上再做上面的工作的时候,不会将所有资料一次性的全部加入计算,是这样的:

会先将N随机分成好多个batch,再将一个batch看成一份资料,计算出一个\theta,之后引入下一个batch,以此类推。

五.relu函数

可以用relu函数代替sigmoid来写出函数。

六.神经网络和深度学习

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值