机器学习基础算法小结

本文总结了机器学习的基础算法,包括线性回归、logistic回归、决策树、朴素贝叶斯、EM算法、KNN算法、SVM、聚类、降维及集成学习等。深入探讨了各算法的核心思想、优缺点,如线性回归的正则化、SVM的最大间隔等。还提到了异常检测和关联规则挖掘中的Apriori与FP Growth算法,为理解机器学习提供了全面概述。
摘要由CSDN通过智能技术生成

机器学习的问题更多的对算法模型的优化,特征工程也属于对算法模型的优化,这一点在后面均有体现。

说明:本文是对部分机器学习的算法模型的思想进行抽取,不会出现详细的推导。

先看一下要掌握的算法有哪些,我个人觉得部分算法有点偏,不过应该是在某个领域里有应用而且效果很好,否则不会成为必掌握的算法。
WechatIMG3.jpeg

线性回归

1、线性函数的表示:

f(x)=θ0x0+θ1x1++θnxn

向量形式:
f(x)=θ⃗ TX⃗ 

其中:
θ⃗ =(θ1;θ2;θn)

当 Θ 确定后,模型就确定了,Θ = 0是可得截距项 b。

2、cost function,亦即最小二乘法估计:

J(θi)=12mi=1m(hθ(xi)yi)2

记得前面说过的机器学习的大部分问题都是优化模型吗?开始,使用梯度下降优化代价函数,这也是线性回归算法思想的精髓。
θj:=θjαθjJ(θ)

α 为学习率。

3、为防止过拟合,加入正则化

J(θi)=argminθ12mi=1m(hθ(xi)yi)2+λj=1nθ2j

优点:易于理解,计算简单;
缺点:不能拟合非线性数据;

logistic回归

首先明确logistic回归不是回归,而是线性分类器。
1、logistic函数表达式为:

hθ(x)=g(θTx)=11+eθTx

其中:
g(z)=11+ez

经变形后得:
lnhθ1hθ=θTx

2、logistic回归主要是通过极大似然来估计待求参数 Θ 的值,样本的后验概率为:

L(θ)=p(y⃗ X;θ)=i=1mp(y(i)x(i);θ)

=i=1m(hθ(x(i)))y(i)(1hθ(x(i)))1y(i)

其中:
P(y=1x;θ)=hθ(x)

P(y=0x;θ)=1hθ(x)

对该式取似然对数可得cost function:
J(θ)=1m
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值