机器学习算法比较

机器学习中常见算法都会用到参数估计以及损失函数,下面资料仅是个人学习所得,有错误欢迎讨论。

常见的参数估计方法有:梯度下降、牛顿法、拟牛顿法。

常见的损失函数有:
1.0-1损失函数 (0-1 loss function)
这里写图片描述

2.平方损失函数(quadratic loss function)
这里写图片描述

3.绝对值损失函数(absolute loss function)
这里写图片描述

4.对数损失函数(logarithmic loss function) 或对数似然损失函数(log-likehood loss function)
这里写图片描述

5.合页损失函数
L(y(wx+b)) = [1-y(wx+b)]下取整

下面的表格中反斜杠\表示|,因为博客编辑表格时需要用“|”来划分表格的列和行。

算法目标函数问题优化损失函数
感知机f(x)= sign(w*x+b)采用梯度下降法优化参数w误分类点到分类超平面的最小距离
KNNy=argmaxsum(I(yi=cj))交叉验证选择最好的k,采用投票表决方法判定样本所属的类误分类率P(Y!=f(X))最小化,采用0-1损失函数
Navie Bayesy=P(Y=ci)[P(Xj=xi\Y=ck)],j=1,2,..n极大似然估计相应的先验概率和条件概率,为避免出现概率为0的情况,采用贝叶斯估计,在随机变量各个取值的频数上赋予一个正数r>0。r=1时为拉普拉斯平滑求后验概率最大化等价于0-1损失函数时的期望风险最小化
决策树ID3:g(D,A)=H(D)-H(D\A) C4.5:gr(D,A)=g(D,A)/Ha(D) CART:miniGini(D,A)决策树剪枝
逻辑回归P(Y=k\x)=1/1+exp(-wx), k=1,…,K-1, P(Y=K\x)=1/1+exp(wx)参数选优方法一般采用迭代尺度法、梯度下降法、拟牛顿法采用对数损失函数
线性回归f(xi)=wxi+b,使得f(xi)~=yi采用最小二乘估计参数平方和最小损失函数
Adaboost这里写图片描述 这里写图片描述 这里写图片描述采用指数损失函数
SVMmin (w*w)/2,y=sign(wx+b)SMO解决对偶问题采用合页损失函数
  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值