第二次吃瓜教程打卡

3.1:建立线性模型f(x)​=ω1​x1​+ω2​x2​++ωdxd​+b=ωTx+b​、

算法原理:求w和b的过程(最小二乘法,极大似然估计)

3.2:线性回归

一元线性回归:

令其分别对w和b求导,,当结果等于0时,

多元线性回归:数据集,样本由d个属性

将w和化为向量形式

极大似然估计:求样本出现概率最大的分布,来求概率分布的参数值

3.3:单位跃阶函数不连续,用对数几率函数代替

其为Sigmoid 函数(形似S的函数),将对数几率函数代入

得到,用线性回归模型逼近对数几率,称为对数几率回归(是一种分类学习方法)

对数几率函数数学性质好,是任意阶可导的凸函数(机器学习中下凹的是凸函数,求最优解)。

3.4:LDA线性学习方法(二分类)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值