机器学习 学习笔记

今天学习了机器学习的第一个算法 :
针对单特征线性回归 和 多特征回归问题的梯度下降算法
这个算法的原理是高等数学中的微积分 (主要应用的是偏导数和 梯度的应用) 梯度的方向是 函数变换做快的方向,根据这个原理我们就可以设计出一个梯度下降算法。
假设 假设函数 为 h (x0,x1,x2,x3…xn) = a0x0 + a1x1 + a2x2 + … + anon 对于这样的一个假设函数我们的代价函数为一个关于a 这个向量的一个代价函数 为 J (A0,A1,A2,A3,…AN) 我们的目标是使的这个函数最小化, 我们可以写出这个函数 这个函数也称之为 (平方误差函数) 这出这个函数后我们对这个函数进行求偏导数,求出偏导数以后设定一个学习速率,然后用这个函数进行学习就可以了。
偏导数
这个地方我们为了方便,把其中的变量 a 与 x 都看成向量处理,这样的话就是两个向量的点积
在线性代数中向量的点积定义为 A0 x0 + A1 * x1 + A2 x2 + … + AN xn 我们默认对于任意的一个x0 都有 x0i = 1; 这样记起来十分的方便。 方便向量的点积。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值