从GLM广义线性模型到线性回归、二项式及多项式分类——机器学习笔记整理(一)

作为一名机器学习的爱好者,最近在跟着Andrew Ng 的 Machine Learning 学习。在讲义的第一部分中,Ng首先讲解了什么叫做监督学习,其次讲了用最小二乘法求解的线性模型,用sigmod函数表示响应函数的logistics回归,接着,利用这两种模型,推出了一种应用十分广泛的指数分布族,在指数分布族的基础上,进行模型的假设,创建了GLM模型,利用这种模型,创建了多项式分布的模型求解(softmax regression),在这中间,还穿插讲了极大似然估计,高斯分布、伯努利分布的cost function函数选择的概率解释,一种新的求解线性模型的算法—局部加权平均法,以及求解函数最值的两种方法:梯度下降法和牛顿法。
但这样存储在脑中的这些东西显得太过杂乱,希望对脑中这些知识进行梳理,能够和同样喜欢机器学习的人交流学习。

1
整理目录为
这里写图片描述
2
3
4
5
6
7
8
9
由于在CSDN编辑器上边敲公式太繁琐,因此直接在word里边编辑的,后来转换为图片格式上传了上来。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值